No, non faccio il filosofo di mestiere. Però ho studiato filosofia a tre riprese. La prima a scuola, per tre anni, in maniera sistematica e lineare. Purtroppo di quello studio non mi è rimasto molto, forse perché l’unico tentativo del professore (avvocato di mestiere) di coinvolgere la nostra classe è stato il primo giorno del primo anno ed è fallito miseramente (“Un uomo vale per me diecimila se è il migliore”: noi, classe autarchica e extraparlamentare, immediatamente bocciammo Eraclito). Da quel momento si limitò a fare lezione in maniera tradizionale, ovvero recitando un discorso che sembrava lui stesso aver imparato a memoria e chiedendoci di fare lo stesso alle interrogazioni, senza leggere altro che i suoi appunti, senza approfondire, senza discutere.
La seconda all’università, per quattro anni, in maniera randomica. Ma non era colpa mia: non mi orientavo facilmente tra le “storie della filosofia X” e le “filosofia Y”. Anche perché mentre X era tutto sommato una categoria omogenea, temporale, Y invece poteva essere un settore, un ambito culturale, una facoltà cognitiva. Dopo un po’ ho capito che mi interessava di più una terza categoria: la “filosofia di Z”, cioè le filosofie applicate, per così dire: la filosofia del linguaggio (ho studiato alla Sapienza di Roma in un periodo dove “filosofia del linguaggio” significava De Mauro) e soprattutto la filosofia della scienza. C’era una scienza, con un suo percorso storico, e si poteva analizzare in termini di concetti impliciti, di pretese, di fallacie nascoste. Il periodo più fruttuoso è però il terzo, che è durato trent’anni, ed è quello in cui ho cercato di applicare quello che avevo studiato al mio campo professionale, cioè l’informatica. Ho cercato di ripensare concetti come interfaccia, oggetto, dialogo, apprendimento sulla base delle esperienze che man mano facevo. Ho preso appunti, ho scritto qualcosa qua e là, senza pretese e più per me che per gli altri.
Mi pare che oggi – con una maggiore attenzione mediatica, positiva e negativa, sulla filosofia, e una sempre maggior inconsapevolezza nell’uso degli strumenti informatici – sarebbe utile provare a raccogliere questi tentativi in una forma più strutturata. Non per chiudere il discorso, ma per iniziare una conversazione a più voci con chi ne avrà voglia.
La forma che dovrebbero avere questi saggi di filosofia del digitale non può essere, per quanto mi riguarda, quella apodittica: il digitale è qui, il digitale è là. Non solo perché “digitale” non è un concetto monolitico, e anzi parlarne in termini di oggetto unico è parte del problema. Non è un soggetto metafisico dotato di identità e di volontà proprie, come sembra a volte di capire. Non più di quanto non siano soggetti metafisici gli “algoritmi“: i quali, incolpevoli capri espiatori, sono pensati da persone e realizzati in programmi scritti per uno scopo preciso. Il digitale non è e non fa: ci sono strumenti e oggetti digitali, progettati e realizzati da persone, che però condividono alcune caratteristiche fondamentali, talmente fondamentali che se non si parte da lì non si capisce come funzionano. Solo che il discorso su questi oggetti non può essere esclusivamente tecnico, perché va a toccare la maniera con cui pensiamo le cose con cui abbiamo a che fare tutti i giorni. Ma nemmeno, credo io, si può parlare del digitale solo in una prospettiva di “teoria dei media digitali”, partendo solo dagli usi che se ne fanno, come se fossimo etnologi alle prese con popolazioni selvagge (i “nativi” digitali) o esobiologi davanti alla fauna di un pianeta lontano (la “rete”). Non che non sia importante studiare anche questi aspetti, che ci riguardano da vicino, ma non si può partire da lì e ignorare quello che c’è sotto, le caratteristiche intrinseche che facilitano certe relazioni e ne impediscono altre. Queste caratteristiche non determinano le relazioni più di quanto la macchina a vapore abbia determinato la relazione tra operaio e proprietario della fabbrica; ma ignorarle significa fare un atto di fede sulla naturalità delle “digisfera” (non esiste? beh, l’ho inventata proprio ora).
Perché fare questi ragionamenti ad alta voce, insomma pubblicarli? E’ una forma di terapia. Certe difficoltà che incontriamo, certe ansie, certe paure dipendono in fondo dal fatto che di questi oggetti digitali sappiamo poco, capiamo poco, e anche se siamo costretti ad usarli lo facciamo come se fossero i vecchi, rassicuranti oggetti analogici. Ma non lo sono. Per rassicurarci, tendiamo a immaginare il futuro davanti a noi estendendo il presente, stirandolo, prolungandolo, con un’operazione analogica, appunto. Invece ci sono già delle cesure enormi tra come era e come è e sarà. Ci sono dei salti nei modelli economici, delle trasformazioni radicali nelle relazioni tra persone. Una analisi filosofica degli artefatti digitali ci potrebbe aiutare a capire queste trasformazioni, potrebbe insegnarci a trattare con quelle paure, se non proprio a superarle.
E’ anche possibile che questi ragionamenti possano portare qualche novità proprio nel cuore della filosofia. In fondo la filosofia ha costruito i suoi concetti a partire dagli oggetti analogici, costruiti attraverso i nostri cinque sensi, e utilizzando il linguaggio naturale come unico collante. Il fatto che esista una nuova “specie” di oggetti che sono costituiti solo da informazione e che esistano linguaggi artificiali con cui questi oggetti possono essere creati e manipolati potrebbe insegnare qualcosa anche ai filosofi.
Filosofico non deve significare difficile, contorto, pieno di rimandi ad autori classici e meno classici in nota. Non deve nemmeno significare astratto, generale, che si arresta alle grandi domande: è un modo dell’indagine e del discorso, quello che sale e riscende, come indicano i pupazzetti di Platone e Aristotele nella Scuola di Atene di Raffaello. E’ anche il modo che mi si addice di più: quella artigianale. Una filosofia che nasce dalla prassi, diventa teoria e poi cerca una validazione di nuovo nell’esperienza.
La forma potrebbe essere quella di una serie di racconti che partono ogni volta da un’esperienza pratica e su questa provano a esercitare un’analisi, a estrarre dei concetti generali, fino a vederne altri effetti, anche e soprattutto attraversando i confini disciplinari. Quello che segue è un esempio.
In questi ultimi sei mesi sto lavorando nel tempo libero (rileggete: sto lavorando nel tempo libero) ad un’applicazione web che permette di consultare dei contenuti strutturati in capitoli e pagine (per la precisione: stanze e pannelli, visto che si tratta di una Mostra online). Ho scritto i codici sorgenti dell’applicazione web, ma anche i testi, per via del fatto che per dimostrare la validità di un’idea ho capito che occorre mostrarne almeno una prima realizzazione. Siccome penso che le cose che ho scritto potrebbero interessare anche persone che non parlano italiano, ho pensato di tradurre 135 pagine HTML dall’italiano al francese, all’inglese e allo spagnolo. Le pagine HTML non hanno una grande formattazione (grassetti, corsivi, dimensioni dei titolo) ma hanno delle tag interne (come <wikipedia> o <data-time>) che servono a fare in modo che l’applicazione possa estrarre informazioni per indicizzare le pagine, oppure a permettere l’espansione automatica di una parola in un link ad una pagina di Wikipedia o ad un video su Yotube.
Le pagine in media sono piccole, tra le 500 e le 1000 parole. Non possedendo io le competenze linguistiche necessarie, né potendo sfruttare quelle familiari, mi sono rivolto alle agenzie di traduttori. Un costo standard per una traduzione non tecnica di una pagina di queste dimensioni dall’italiano alle principali lingue europee mi pare essere tra 10 € e i 40 €. Sale anche a 150-200 € se si richiede una revisione di qualità. Non è tanto, anzi a me pare molto poco. Significa che il traduttore è pagato una miseria, e avendo assistito mia moglie nella traduzione di uno scenario di film posso dire che è un lavoro bellissimo ma ingrato e infinito.
135 pagine x 20 € x 3 lingue però fa oltre 8000 €, che sono molto, molto al di là di quello che mi posso permettere, perché il progetto non è finanziato da nessuno. Rinuncio? Faccio tradurre solo un piccolo sottoinsieme delle pagine? Chiedo aiuto a volontari con un crowdtranslating? .
C’è una alternativa che senz’altro conoscete tutti: i traduttori automatici su web. Ho una precedente esperienza sia con Bing che con Google, che ho provato per tradurre delle etichette e dei messaggi di un’altra applicazione web. Siccome in quel caso evidentemente il contesto linguistico di ogni elemento era limitato (un grosso file in cui ogni riga si poteva riferire ad argomenti diversi), il sistema di traduzione di entrambi prendeva cantonate notevoli. Qui forse le cose andrebbero meglio perché ogni pagina parla di un determinato argomento, e poi è passato del tempo.
Mi consiglia un amico di lasciar perdere Google e Bing provare DeepL, che è un servizio di una società tedesca. DeepL è basato su reti neurali convolutive, che naturalmente tutti noi conosciamo e mangiamo a colazione. Il nome fa riferimento al deep learning, che è un tipo di machine learning, quella parte dell’intelligenza artificiale in cui si cerca di riconoscere strutture non sulla base di definizioni formali, ma sulla base di somiglianze. In sostanza, grandi moli di testi vengono raccolte e utilizzate per costruire e addestrare modelli di traduzione. La storia di DeepL è abbastanza tipica per il settore: inizia nel 2007 come Linguee, una società tedesca fondata da un ex-dipendente di Google che raccoglie milioni di testi in giro per il web (anche quelli del Parlamento Europeo, che sono multilingue e ben tradotti) e offre un servizio di concordanze online. Dieci anni dopo, sulla base dell’enorme materiale raccolto e di una rete neurale, la società cambia nome e lancia il primo servizio free di traduzione con sette lingue, per un totale di 42 coppie.
Esporto quindi tutte le mie pagine in un unico file PDF e lo carico. E’ troppo grosso, la traduzione automatica non arriva in porto. Ma anche se avesse funzionato, avrei avuto due problemi : dividere di nuovo il file in 135 file HTML e salvarli nel posto giusto col nome giusto; soprattutto avrei dovuto ripristinare a mano tutte le tag eliminate nella conversione in PDF. Non praticabile.
A questo punto mi viene in mente – perché sono un po’ tardo e lento come i passi di Petrarca – che sto trattando il problema in maniera “analogica”. Sto pensando il testo in termini di libro. Per tradurre un libro si prende il testo, lo si manda ad un traduttore; poi comincia un ciclo di revisioni; poi si prende la traduzione finale e la si impagina. Alla fine si distribuisce il libro tradotto nei mercati esteri. E’ un processo sequenziale con un “loop”, un ciclo di ripetizioni interno, per la parte di revisione. Ma è lineare e ogni parte presuppone quella precedente: non si può distribuire il libro se non è stato tradotto, e non si può tradurre se non è stato scritto.
Ma la mia è un’applicazione web, che non ha un momento finale: sarà sempre in pubblicazione. Non deve essere fissata in un certo momento per poi essere inviata ai distributori e poi alle librerie. Non serve a niente tradurre tutto: basta tradurre quello che le persone vogliono visualizzare. E non serve a niente tradurlo prima: basta tradurlo un attimo prima di quando qualcuno vuole visualizzare una pagina. E infine: potrebbe essere necessario tradurre nuove pagine man mano che si aggiungono, o ritradurre alcune pagine che sono state modificate.
Quindi cerco meglio e scopro che DeepL (come probabilmente ogni altro servizio del genere) offre delle API, cioè degli indirizzi HTTP a cui si possono inviare testi da tradurre e che restituiscono la traduzione immediatamente, senza bisogno di intervento umano. Inoltre si può specificare che non si desidera tradurre un romanzo, ma una pagina HTML, escludendo dalla traduzione certe particolari tag (che è proprio quello che mi serve).
Inserisco perciò nel codice sorgente dell’applicazione un test: se l’utente ha scelto l’inglese (o il francese, o lo spagnolo), e il file HTML corrispondente non esiste, viene inviata la pagina italiana e ne viene chiesta la traduzione alle API di DeepL. Tempo due secondi, arriva la pagina tradotta, viene mostrata al visitatore e salvata. L’utente non si accorge quasi di nulla. Al prossimo accesso, quella pagina esiste e il risultato è immediato. Insomma, non sono io che mi occupo della traduzione, ma l’applicazione stessa che risponde alle esigenze dell’utente in maniera automatica, esattamente come gli restituisce i risultati di una ricerca. Contemporaneamente, l’applicazione confronta la data della versione originale (in italiano) e quella della versione tradotta: se la prima è più recente della seconda, richiede una nuova traduzione.
Adesso provo a dire in termini più generali perché un documento digitale non è un libro.
L’uso del servizio online ha trasformato un processo sequenziale in un processo “just in time”, spezzandolo non in funzione della struttura o dell’organizzazione della produzione, ma in funzione del suo utilizzo. Non mi devo procurare una bicicletta in previsione di quando smetterà di piovere e avrò voglia di fare una passeggiata, ma mi trovo una sella sotto il sedere quel giorno lì, appena uscito di casa, e mentre comincio a pedalare appaiono le ruote. Magie digitali? No, è solo che i servizi che chiamiamo “immateriali” (ma che non lo sono, visto che richiedono sempre hardware per essere fruiti) non hanno bisogno di mimare completamente quelli analogici. Se lo fanno, è solo in un momento iniziale, per non confonderci le idee. Bolter e Grusin parlavano di “remediation” per indicare questa capacità di un medium di citare e riassorbirne un altro: beh, di sicuro i servizi digitali rimediano quelli analogici e inizialmente passano inosservati, come ho scritto anche qui. Ma sotto sotto funzionano diversamente.
Il motivo generale per cui è possibile questo andamento dinamico è la caratteristica fluidità degli oggetti digitali. Mentre le pagine di un libro (meglio, di una certa edizione di un libro) sono fisse, hanno una dimensione, un numero di righe, di parole e di lettere, un colore, un carattere e una dimensione, le pagine di un e-book no. La pagina dell’ebook si crea quando viene visualizzata, in funzione di tre livelli di impostazioni: quella iniziale, voluta dall’editore (un certo carattere, per esempio Arial, una certa dimensione delle lettere); quella del dispositivo (una certa dimensione dello schermo, una certa risoluzione in termini di punti per centimetro quadrato); quella decisa dal lettore umano (un carattere diverso, una dimensioni più grande, un’interlinea maggiore). L’ultima vince sulla seconda che vince sulla prima. Da questa trattativa risulta una disposizione del flusso di lettere particolare, probabilmente unica, modificabile in ogni momento. E’ per questo che dire “pagina 3” di un ebook non significa niente, perché cosa viene mostrato dipende dalle impostazioni, dalle scelte, dalle possibilità previste. Uno dei miei primi tentativi di creare un software “educativo” è stato Scribo. Era un software per la videoscrittura semplificato che avevo scritto col linguaggio Pascal. La cosa su cui ho perso più tempo è stata proprio la continua ritrasformazione del flusso lineare del testo in una matrice righe x colonne. Lì ho capito che “pagina numero 3” non significa nulla, mentre “lettera numero 240” invece sì. Ho capito anche quanto la pagina (e lo schermo, che la mima) fosse un’unità completamente arbitraria. La stessa cosa vale ovviamente per le immagini e i suoni, ma per adesso lasciamo questo discorso.
C’è un altro senso per cui un testo digitale non è un libro: perché in fondo non ha un’esistenza propria, se non nel momento in cui qualcuno la vuole ritrovare, consultare, stampare. Non ha senso dire che un testo digitale “sta” da qualche parte, come un libro in una biblioteca o in un archivio che c’è anche quando la biblioteca è chiusa, quando nessuno lo cerca. Un testo digitale è “file” cioè una sequenza di bytes immersa in una sequenza più grande (una tamburo magnetico, un nastro, un disco: non è importante). Quel file però non esiste se non perché è indicizzato, inizia qui e finisce lì; altrimenti è solo una massa informe di bytes indistinguibili da quello che c’è prima e quello che c’è dopo. Questa è una delle caratteristiche primarie degli oggetti digitali: non sono oggetti, ma sono finestre, viste, inquadrature applicate su una sequenza di simboli. L’accesso ai file di un disco è realizzato tramite un indice, che in certi vecchi sistemi operativi si chiamava FAT (File Allocation Table: tabella di posizionamento dei file). Se la FAT si rovinava, era impossibile recuperare i file e il disco era praticamente inutile (per questo ce n’erano due). Certo le sequenze sono diverse, e hanno delle caratteristiche intrinseche che le individuano, cioè l’ordine in cui sono disposti i bytes. Questo ordine è ciò che permette ad un programma antivirus di andare a caccia della “firma” caratteristica di un virus anche senza sapere dov’è.
Una seconda caratteristica importante di un documento digitale, che lo differenzia da un libro, è che la forma con cui lo vediamo o lo pensiamo dipende sempre da qualche operazione che ci facciamo sopra: lo vogliamo tradurre in punti neri su uno schermo bianco o sulla carta, o lo vogliamo tradurre, o analizzare per contare le occorrenze di certe parole. Il documento non esiste in sé e per sé, ma in funzione di quello che ci si fa. Volendo si potrebbe forzare il discorso fino a dire che ogni documento digitale è un programma, nel senso che è una descrizione di azioni possibili, più che di proprietà. Come se ogni documento fosse una ricetta o uno spartito. Ma in realtà di solito ci limitiamo a pensare a certi file come composti da dati, inerti, passivi, e certi altri come programmi, solerti, attivi. E’ una scelta nostra, di convenienza, che però non ha un vero fondamento. Anche i programmi sono dati, e si possono leggere, scrivere, trasformare, tradurre, disegnare, suonare, oltre che eseguire.
E’ per questo che per il servizio di DeepL tradurre un testo in HTML non è un problema: quello che traduce non è il testo che leggiamo noi umani che traduce – un testo che ha un significato per noi perché fatto di parole e segni di interpunzione – ma il documento digitale corrispondente, che strutturato come un albero di tag. Su quest’albero vengono effettuate delle operazioni di ricerca, estrazione, messa fra parentesi. Lo fa DeepL per tradurlo, ma lo fa un browser qualsiasi come Firefox o Edge per mostrarmelo, lo fa un motore di ricerca per indicizzarlo. Per essere ancora più precisi, noi non vediamo mai la cosa digitale, nemmeno quando spiamo il codice sorgente di una pagina web, ma vediamo il risultato di qualche operazione su di essa.
Se ogni volta che abbiamo a che fare con un documento digitale in realtà interagiamo con un programma che lo trasforma, allora dovrebbe essere chiaro è sempre con agenti digitali che abbiamo a che fare. Quando parliamo del web come di una “Internet dei Documenti” tra cui saltabecchiamo in funzioni dei nostri interessi del momento, seguendo link o risultati di ricerca, dovremmo piuttosto parlare di una “Internet degli Agenti”: programmi che parlano tra loro, quando e se lo ritengono opportuno. Un dialogo invisibile agli umani, che continuano ad essere convinti di “navigare la rete”, come se fosse la superficie di un mare, magari sconosciuto, ma naturale. Non è un mare, è una conversazione, un bisbiglio continuo di cui non capiamo nulla ma ogni tanto percepiamo delle increspature e riconosciamo parole. Sono agenti che non hanno bisogno di essere tutti intelligenti, ma solo di essere stati programmati con un compito, lanciati e messi in comunicazione tramite qualche protocollo. Di protocolli ce ne sono tanti, antichi, nuovi, superati, contraddittori: eccola, la vera Babele.
Più ottimisticamente, quando Pierre Lévy (studioso della metafisica araba medievale) parlava di intelligenza connettiva utilizzava un concetto filosofico (l’intelletto agente di Averroè, che non è personale) per descrivere con una metafora questo dialogo che non è fra intelligenze, ma è una forma di intelligenza. Non: l’intelligenza artificiale è all’origine del dialogo, ma: l’intelligenza artificiale è la forma che assume per noi questo dialogo. Quando si parla di aspetti etici dell’intelligenza artificiale occorrerebbe pensare in questi termini: non entità superiori, ma agenti computazionali limitati. Come fa da tempo Salvatore Iaconesi.
Questo dialogo ci è utile, anzi non sapremmo più farne a meno (pur non accorgendocene). Ma ha anche degli effetti più sgradevoli per alcuni di noi: il servizio di traduzione just in time rende il traduttore umano un po’ meno utile se non addirittura inutile. Certo è ancora utile per chi ha bisogno di una vera traduzione letteraria, artistica, legale. Ma per le piccole aziende che vogliono provare a esplorare i mercati mondiali, per le associazioni no profit che si occupano di intercultura e migranti, per gli studenti di ogni disciplina, per chi come me ha bisogno di comunicare al di fuori del suo piccolo angolo di mondo: per tutti noi i traduttori umani diventano un’opzione perfettamente rinunciabile. Per noi la qualità della traduzione di DeepL è più che accettabile. Ma non lo dico io: qui potete leggere uno studio che confronta i risultati della traduzione dall’italiano al tedesco in ambito giuridico, tecnico e promozionale di DeepL con altri sistemi. E non può che migliorare: DeepL, come molti altri, mette i suoi servizi a disposizione non solo del pubblico generico, ma anche dei traduttori umani. Perché? perché più viene usato, più aumentano le dimensioni dei dati su cui viene fatto il training dei modelli di machine learning, più migliora la qualità. Non è lontano il giorno in cui la qualità di una traduzione automatica sarà indistinguibile da quella umana; o meglio, il giorno in cui la qualità sarà variabile a piacere, in funzione del prezzo che si è disposti a pagare. A quel punto, i traduttori umani potranno cambiare mestiere. Già prima, scompariranno gli istituti di formazione linguistica che già ora cominciano ad avere difficoltà a trovare studenti: a che serve studiare da traduttore se poi questo lavoro sta per scomparire? Ne parlo un po’ più a lungo qui.
Insomma la IoA (la Internet of Agents) non è un fatto naturale o un sottoprodotto che il meraviglioso progresso della scienza ci regala: è il risultato preciso di un modello di società fortemente voluto non solo dai Grandi Cattivi, ma un po’ da tutti: le competenze professionali tradizionali vengono acquisite da sistemi digitali e le persone vengono sostituite da servizi sempre più piccoli, specializzati, mirati al bisogno nel momento in cui viene espresso (o anche prima: dove vuoi andare oggi?).
Ecco che mi trovo in una bella contraddizione: rinuncio alle mie bellissime traduzioni, e mi chiudo in un eremitaggio a-tecnologico, da dove naturalmente la mia voce non esce, oppure chiudo gli occhi e partecipo alla fine di una professione su scala planetaria? E se non faccio nulla, ho qualche garanzia che le cose andranno diversamente?
Ecco anche perché capire come funziona il “digitale” è fondamentale per ri/progettare il futuro. Perché viviamo dentro una contraddizione e dobbiamo imparare ad farci i conti.
Mi sono reso conto improvvisamente (eh sì) che la mia maniera di pensare la “didattica digitale” è spesso lontana da quella di molti che in teoria dovrebbero essere dalla mia stessa parte, la parte di quelli che studiano, sperimentano e propongono agli altri attraverso corsi, libri, seminari e sogni vari. Ci troviamo vicini, ci salutiamo cortesemente, sembra che vogliamo camminare nella stessa direzione, poi improvvisamente c’è un’interruzione di questa comunità di intenti. Forse ho capito perché.
Gli strumenti digitali sono tanti, diversi, e si possono usare in tanti modi diversi. Già per questo parlare di “innovatività del digitale”, o di “didattica digitale” è un po’ generico e ingenuo. Certi strumenti digitali si possono usare per creare strutture nuove, o per replicare modelli esistenti. Si possono usare in maniera ingenua, come se fossero funzioni naturali, date ad Adamo una volta per tutte; oppure si possono esaminare, scegliere, usare magari lo stesso ma sapendo chi li ha costruite e perché. Soprattutto, si possono usare strumenti digitali come se fossero analogici, all’interno di strutture di pensiero tradizionali; oppure capire come funzionano e sfruttarne le caratteristiche più proprie. Detto in altro modo: ci sono tante dimensioni lungo le quali si può immaginare e valutare l’uso degli strumenti digitali:
consapevole/ingenuo
creativo/fedele al modello
individuale/collettivo
fruitivo/produttivo … ma quella fondamentale per me resta:
digitale/analogico
Dimensione paradossale, in cui il termine che sembra lapalissiano (“uso digitale di uno strumento digitale”) è in realtà la descrizione di un uso del digitale consapevole delle differenze e delle opportunità che offre rispetto al corrispondente analogico; mentre il contrario, cioè “l’uso analogico del digitale” è la descrizione di un uso veloce, superficiale, attento agli obbiettivi immediati, quelli che si possono definire a priori, indipendentemente dalle tecnologie scelte e usate.
Anni fa avevo provato a descrivere alcune delle caratteristiche del digitale. Sbagliando, credevo di parlare del “digitale in sé”, mentre stavo parlando proprio di questa differenza. Scrivevo che il digitale è inerentemente flessibile, plurale, virtuale, omogeneo. Ognuno di questi aggettivi era un modo di descrivere delle operazioni possibili sugli oggetti digitali e non sui corrispettivi analogici: modificare all’infinito, modificare a più mani, tradurre e reinterpretare da un campo mediale all’altro, eccetera. Queste possibilità derivavano sia dal fatto che alla base c’erano bit, cioè forma e non materia, sia dal fatto che i dispositivi digitali si possono programmare per fare cose non previste, non contenute nell’orizzonte presente.
(La parte seguente può essere saltata da chi si è già interessato alla storia dei media e ha già riflettuto recentemente su questi temi, cioè immagino tutti. In questo caso, può saltare direttamente a leggere la Conclusione ).
1. Gli strumenti digitali nascono per la quasi totalità come rimediazioni di quelli analogici, come scrivono Bolter e Grusin, in un processo che non è una sostituzione netta, e in cui non è subito ovvio se e quando il doppio digitale prenderà il posto di quello analogico. La coppia pc-wordprocessor, ad esempio, è una versione digitale della macchina da scrivere. Serve a fare le stesse cose, ma inizialmente costa anche di più, è più difficile da usare, richiede un apprendimento specifico; però presenta dei vantaggi: carta infinita, cambio di font, dimensioni variabili eccetera eccetera. Talmente vantaggi che le macchine da scrivere oggi sono scomparse. Gli orologi analogici invece no, almeno quelli di altissima gamma. Come le carrozze a cavalli sono quasi scomparse, tranne per i matrimoni e per fare il giro del Colosseo. La versione digitale costa poco ed è per tutti, quella analogica per pochi. Potrebbe essere il destino dell’educazione analoagica (umana o cartacea), quella di essere riservata ai ricchi; ma passiamo oltre. A volte sono quasi indistinguibili, come nel caso delle macchine fotografiche reflex o delle videocamere. Una reflex digitale assomiglia fisicamente ad una analogica, anche se pesa un po’ meno, e fa esattamente la stessa cosa. Solo che non ha bisogno di pellicola, perché la luce viene tradotta in bit prima di essere registrata su una scheda a stato solido, ma questo è del tutto trasparente per l’utente, il quale francamente se ne infischia. All’estremo opposto, alcuni strumenti digitali sono apparentemente molto diversi da quelli analogici che intendono sostituire; o meglio, fanno astrazione dalla materia e dal corpo (che poi è proprio quello che fa meglio il digitale: rende generico l’hardware). Hanno in comune con quelli analogici solo l’interfaccia, il modello d’uso e lo scopo: un software di editing video assomiglia ad una centralina video ma è un software che gira in un PC qualsiasi, non ha bisogno di un macchina specializzata, non occupa spazio e si può aggiornare facilmente. Costa quasi lo stesso, è vero, ma si può copiare o accontentarsi della versione “open”.
In tutti questi casi, chi ha utilizzato prima gli strumenti analogici e poi quelli digitali ha (o meglio potrebbe avere) la percezione delle differenze, dei minus (“Ah, la qualità degli amplificatori a valvole…”) e dei plus (“Uh che sbadato! Va beh, Ctrl-Z”) che derivano dal fatto che i dati vengono creati filtrando e numerizzando segnali, e che una volta costituiti in forma digitale possono essere trasformati, copiati, inviati all’infinito, senza nessuna perdita. I più anziani, fortunati, o ricchi, possono permettersi di scegliere tra la versione analogica e quella digitale. In ogni caso, per quel poco o tanto di tecnica che conoscono, sanno che dentro il corpo macchina ci sono cose molto diverse.
Chi ha usato solo gli strumenti digitali invece li considera semplicemente gli strumenti disponibili oggi per ottenere certi risultati. Non confronta con nulla, non conosce la storia, non riconosce nel nuovo il vecchio – non sa perché sulle tastiere dei PC esiste un tasto per bloccare il maiuscolo che però non funziona con i tasti che presentano numeri e simboli insieme. Niente di male, intendiamoci: non bisogna per forza aver scritto con una penna d’oca per apprezzare le qualità della Bic. Ma per loro la Bic è lo strumento della scrittura, e non ce ne sono né possono essere altri. Soprattutto, non fanno attenzione al processo sottostante, non sono interessati al funzionamento.
2. C’è una seconda classe di strumenti, che nascono come doppi digitali di uno strumento analogico ma poi si trasformano in altro. E’ il caso del telefono, per spiegare l’evoluzione del quale non c’è bisogno di tante parole. In questo caso, una volta raggiunto l’obiettivo di simulare il comportamento dello strumento target (il telefono analogico) ci si è trovati tra le mani un oggetto talmente potente da poter essere usato come di altre pratiche (fare fotografie, registrare audio) e come terminale di servizi internet (navigare nel web, comunicare). Questo doppio o triplo uso per un certo periodo lascia interdetti gli utenti più vecchi, che continuano a usare uno smartphone come un telefono, mentre è perfettamente compreso dai nuovi utenti, che a limite non lo usano mai per telefonare, ma che importa?Non è un caso: è che essendo l’hardware (e il sistema operativo) dei supporti generici, quello che ci si fa sopra è praticamente illimitato. Una volta fatto lo sforzo di convincere le persone ad avere tra le mani un coso digitale, il più e fatto e da lì si può far passare tutto.
3. Infine ci sono gli strumenti totalmente digitali, nati digitali, senza nessuna corrispondenza analogica. Sono rari perché per affermarsi devono poggiare su concetti completamente nuovi. Il foglio di calcolo è uno di questi: non assomiglia veramente a nulla, non potenzia un foglio di carta a quadretti ma fa cose diverse (sostituisce la mente nei calcoli, e lo fa continuamente). Questi strumenti si basano su una caratteristica unica che gli deriva dall’essere, tutti, al fondo, dei computer: la possibilità di essere programmati. Che non significa : programmati per fare una cosa. Gli strumenti analogici si possono configurare, se ne possono variare i parametri; ma non si possono programmare, nel senso di stabilire comportamenti diversi in base a situazioni differenti. Uno strumento digitale è capace di scegliere come comportarsi sulla base di uno schema di situazione che può essere molto complesso e che si chiama “programma”.
Arriviamo al punto: i doppi digitali si possono anche usare limitandosi alle funzioni che erano possibili coi i loro antesignani analogici. Ma i risultati più ricchi, soddisfacenti, soprattutto per quanto riguarda l’educazione, si hanno quando se ne sfruttano le caratteristiche intrinseche, quelle che poggiano sul loro trattare dati digitali (flessibili, molteplici, omogenei…) e di poter essere programmati. Quando oltre ad usarli in maniera critica, creativa, in gruppo, per produrre artefatti eccetera eccetera si sfrutta il fatto che in questo particolare universo le lettere si possono trasformare in suoni, e i numeri in disegni; che le storie si possono rendere vive e le mappe navigabili, allora li si usa in maniera davvero educativa. Ecco perché usare strumenti (o servizi) digitali all’interno di un framework educativo analogico mi pare riduttivo. Ed ecco quello che mi separa da tanti educatori digitali “innovativi”.
C’è una visione dell’apprendimento che si potrebbe descrivere partendo da questo schema di sapore informatico:
conoscenze = dati
abilità = algoritmi
competenze = saper applicare il corretto algoritmo ai dati relativi alla situazione attuale
L’apprendimento consiste nell’acquisizione dei dati, nell’elaborazione degli algoritmi e nell’accumulo dell’esperienza che consente di scegliere gli algoritmi più adatti.
E’ un modello pedagogico che chiamerei “tradizionale”, senza andare troppo a distinguere tra teorie diverse, perché mi sembra che sia presupposto implicito di molti discorsi, anche di quelli che non fanno riferimento ad una teoria precisa. Anzi, direi che sta dietro – sempre in maniera implicita – alle teorie dell’insegnamento di chi parla della difficoltà di trasmettere le conoscenze, di promuovere lo sviluppo di abilità e di valutare la presenza di competenze.
La formulazione in termini informatici invece l’ho inserita io, ma non mi sembra di aver forzato molto. Pensare uno studente in termini di computer è quello che si fa quando si parla di pensiero computazionale, sia che si voglia mettere l’accento sugli aspetti concreti della computazione (la calcolabilità, le risorse finite) sia che si pensi ad un elaboratore del tutto astratto che applica algoritmi per risolvere problemi.
In ogni caso: questo schema pensa l’apprendimento a partire dai meccanismi cognitivi superiori (memoria, elaborazione, selezione e applicazione), come fase necessaria perché l’individuo arrivi ad essere competente. L’apprendimento è un requisito per la performance. Il valore è la performance e l’apprendimento è una condizione. Le agenzie educative come la scuola sono la garanzia che l’apprendimento produca il risultato voluto – la competenza. La valutazione è principalmente la certificazione del raggiungimento del risultato finale.
Questa impostazione ha diversi punti oscuri: l’acquisizione delle conoscenze è basata sulla semplice esposizione? Come avviene la creazione degli algoritmi? Come si sceglie quale algoritmo applicare? Sono domande che la pedagogia lascia alla psicologia, secondo una piramide delle discipline accettata abbastanza universalmente.
E’ un modello che è costruito sulla cognizione, sulla memoria, sulla logica. Evidentemente presuppone un individuo normale, cioè che disponga di tutte queste funzioni superiori in maniera standard.
Non trovano posto, in questo modello, gli aspetti affettivi, la volontà, il bisogno. Se c’è un motore a muovere il tutto, è la società che definisce quali sono le competenze utili. E’ un vero “primum movens”, in cui esiste già in atto quello che negli studenti è solo in potenza.
E’ un modello che è costretto a procedere a ritroso nei casi in cui fallisce: se un individuo non è in grado di scegliere l’algoritmo giusto, o non si ricorda i passi, o i dati, significa, tornando indietro, che non ha appreso uno di questi elementi. Per questo occorre frammentare la formazione e inserire dei test che permettano subito di individuare l’elemento mancante.
Questo modello si sposa bene con una didattica basata su un sillabo e centrata sull’azione del docente. E’ il docente che sceglie i dati da registrare, gli algoritmi da costruire, e che mostra dei casi positivi di applicazione dell’algoritmo ai dati perché gli studenti siano in grado di riconoscere situazioni simili.
Naturalmente l’apprendimento riguarda solo l’individuo che apprende, nel senso che gli effetti sono misurabili da comportamenti esterni ma i meccanismi sono tutti interni alla mente dell’individuo. Se si potesse fare un apprendoencefalogramma si potrebbero vedere i dati e gli algoritmi ben allineati e pronti per il collegamento. La cosa più vicina che abbiamo immaginato a questo esame dell’interno dall’esterno sono appunto i test. Che sono, manco a dirlo, dei test individuali.
Questo modello riguarda infatti solo il singolo individuo. La didattica che ne risulta è prima di tutto una didattica individuale; tutte le tecniche rivolte al gruppo di individui sono fondate sull’esperienza, non sul modello che è stato descritto fin qui. Questo semplicemente perché sono gli individui che possono memorizzare dati, costruire algoritmi e applicarli, e non i gruppi. Si pensa l’apprendimento come fenomeno personale, individuale, al quale eventualmente si possono sovrapporre alcune tecniche di insegnamento relative al gruppo. Perché apprendere da soli è la regola.
Penso invece che sia vero il contrario: apprendere da soli non è la regola, è l’eccezione.
Apprendere in gruppo è normale. Norma nel senso della statistica: le modalità strutturate di insegnamento, per quel che ci racconta la storia della scuola, sono soprattutto di gruppo. Norma nel senso della scala: il gruppo fornisce dei riferimenti, delle possibilità di confronto: io sono qui, ma potrei essere lì insieme a quell’altro componente del gruppo. Quindi sto procedendo troppo piano, o troppo in fretta.
Il gruppo permette anche di apprendere per imitazione orizzontale, che è completamente diversa da quella verticale in cui il modello è lontano, competente per definizione. Il gruppo permette di elaborare algoritmi parziali e integrarli con frammenti costruiti da altri, alleggerendo il carico cognitivo. Il gruppo permette di confrontare la propria scelta di algoritmi con quella degli altri, e di fare così meta-apprendimento.
Insomma, apprendere in gruppo di solito funziona meglio. Le discipline sportive di squadra offrono tutte degli ottimi esempi di questa differenza: se l’allenatore punta solo alle eccellenze, e se gli stessi giocatori mirano solo al raggiungimento di obiettivi personali, la squadra ha un rendimento che dipende linearmente dalla somma delle competenze dei singoli. Se invece la squadra diventa il centro dei processi di insegnamento e apprendimento, e tutti investono del miglioramento della squadra, i risultati sono oggettivamente superiori.
Si tratta di considerazioni validissime, ma che partono appunto dalla pratica, non dalla teoria dell’apprendimento, e restano forse proprio per questo marginali nella prassi educativa scolastica. Inevitabilmente la parte relativa ai processi del gruppo è solo superficiale, incollata dall’alto. I processi di scambio di informazioni tra i partecipanti del gruppo sono forzati, scanditi da ritmi esteriori; sono considerati delle richieste a cui bisogna adeguarsi, non una necessità che viene dall’interno.
Facciamo resistenza a pensare in termini di analisi anziché di sintesi. Il gruppo lo costruiamo a partire dagli individui. Come se l’individuo fisico fosse più reale del gruppo.
Perché invece non si fonda la teoria dell’apprendimento sull’apprendimento di gruppo, per poi eventualmente ricadere su un caso particolare, in cui il gruppo è formato da un solo individuo, nei suoi diversi momenti? Perché non si progetta una didattica di gruppo, che ha davvero il gruppo come obiettivo, e non gli studenti? Perché non si immagina una valutazione di gruppo che non sia la media della valutazione dei singoli? Forse perché il modello di apprendimento che abbiamo in testa anche senza saperlo non è adatto.
Parecchi anni fa ho provato a disegnare un modello alternativo. Non tanto perché avessi le prove che questo che ho appena descritto non funzionasse, ma perché mi sembrava un modello debole, con troppi casi lasciati fuori come eccezioni. Non era centrato sull’apprendimento, ma sui risultati. Non rendeva possibile progettare del software educativo diverso da quello che circolava (eserciziari ripetitivi in cui si supponeva che le conoscenza dovessero essere apprese per semplice “esposizione” ripetuta). Anzi, questi esempi mi portavano a pormi la domanda: cosa rende un software davvero “educativo”? Il fatto di essere semplice, anzi banale? I colori sgargianti? La presenza di scoiattolini? I contenuti approvati da qualche centro di ricerca? Il test alla fine, con l’immancabile “Bravo!” ?
E difatti, sulla base di questo nuovo modello ho progettato e costruito, negli anni seguenti, un certo numero di software e ambienti “educativi”, ma in un senso diverso.
Il modello che ho immaginato, partendo certamente dalle letture di Dewey, Vygotskij e Bruner, ma senza cercare di derivarne formalmente una teoria, era molto semplice e in sostanza presentava l’interazione tra due elementi: il Soggetto e l’Ambiente. Il modello in questione descriveva l’apprendimento non come la condizione di qualcos’altro, ma a partire dal suo fine interno: il controllo di un ambiente. L’apprendimento è il processo nel quale il soggetto acquisisce il Controllo dell’ambiente. Di conseguenza, l’educazione consiste nell’assicurarsi che questa acquisizione si svolga in maniera efficace, attraverso la creazione di ambienti che sono progettati appositamente per cedere il controllo al soggetto. La valutazione è la parte del processo educativo che permette di rilasciare il controllo progressivamente, al momento giusto e nella misura giusta. Tutto qui. Ma da questi pochi concetti si possono trarre, a mio avviso, delle conclusioni interessanti soprattutto in termini di progetto didattico e di progetto valutativo, non solo legato ai software educativi.
Prima di tutto, si tratta di un modello che presuppone che l’apprendimento esista, che sia comune non solo ai cuccioli d’uomo, ma a tutte le persone, a qualsiasi età; e che non sia troppo diverso tra gli animali, scendendo via via alle specie meno complesso, e forse fino ai vegetali.
Non presuppone l’esistenza di facoltà cognitive superiori. Il che lo rende applicabile a molte più situazioni. Invece presuppone che ci sia un bisogno, una volontà, cieca quanto si vuole, che spinge il soggetto verso l’appropriazione dell’ambiente. Questa presupposizione è esterna al modello, ed è un modo diverso per descrivere un fatto dell’esperienza: c’è apprendimento quando esiste questa volontà. E difatti, ai cuccioli è quasi impossibile impedire di apprendere, e ai vecchietti quasi impossibile imporlo. L’educazione si svolge all’interno dei margini di questa disponibilità ad apprendere, altrimenti è destinata a fallire. Anche qui si tratta di un fenomeno evidente, ma che si spiega chiaramente: l’educazione è al servizio dell’apprendimento perché l’apprendimento è un processo naturale e l’educazione è solo il tentativo di rendere più efficace quel processo naturale all’interno di uno spazio artificiale.
Un aspetto importante del processo di apprendimento (come è descritto in questo modello) è che non solo il soggetto cambia, ma anche l’ambiente. Forse si tratta della differenza più grande rispetto al modello descritto sopra come tradizionale, ed è l’elemento che rende i due modelli incompatibili. Perché si possa dire che c’è apprendimento non basta andare a guardare nella testa del soggetto, ma occorre guardare gli effetti nell’ambiente. La modifica dell’ambiente è precisamente ciò che il soggetto si propone come fine nell’apprendimento. Non si tratta di una modifica necessariamente fisica (come non è necessariamente fisico l’ambiente): il passaggio del controllo dall’ambiente al soggetto significa che l’ambiente perde di libertà, di potere. Perciò non è pensabile, letteralmente, un apprendimento che non modifichi tanto il soggetto che l’ambiente.
È un modello filosofico, non psicologico. Non distingue tra dati e algoritmi, non si preoccupa di come vengono conservati gli uni e gli altri.
È un modello dinamico, non statico. Il controllo è il risultato della spinta reciproca di soggetto e ambiente; non è un terzo elemento ma solo il limite tra i due.
Resta anche qui da chiarire cosa significa controllo. Ma è un termine che ha un significato univoco: può valere, a seconda dei contesti, libertà, possibilità di agire, conoscenza, previsione, ….
Anche se non l’avevo specificato (o pensato) all’epoca in cui lo descrivevo, il soggetto non è necessariamente un individuo: può essere una parte di un individuo, oppure un gruppo di individui. È una descrizione di un processo partendo dai due elementi che si definiscono uno in relazione all’altro.
Questa possibilità di pensare il gruppo come soggetto di apprendimento a pieno titolo permette di studiare, progettare o verificare il processo anche al livello di gruppo e non solo di individuo. Si possono immaginare delle attività educative, cioè di supporto all’acquisizione del controllo del gruppo sull’ambiente. E, di conseguenza, si possono immaginare strumenti che mirano a fissare la posizione del limite tra soggetto e gruppo: una valutazione del gruppo come soggetto, e non (solo) dei singoli individualmente.
L’apprendimento del gruppo (non solo: in gruppo) non è la somma degli apprendimenti dei singoli. Il gruppo sa fare delle cose che i singoli non sanno fare, ma soprattutto il gruppo ha dei bisogni, degli obiettivi, una storia che sono diversi da quelli dei singoli.
Così l’ambiente di apprendimento del gruppo non è l’ambiente del singolo. E’ un ambiente collettivo dove si intrecciano le operazioni di tutti quelli che fanno parte del gruppo. E’ un ambiente che viene modificato dal gruppo, che si adatta ad esso (e non al singolo studente). E’ facile immaginare cosa significa pensare una piattaforma per l’e-learning in questi termini. In realtà, come si sarà capito, ADA è precisamente un ambiente di apprendimento di gruppo, è stata pensata in questo modo e funziona così. Senza questo modello non si capisce il senso di tante funzionalità, come quella che permette di modificare il contenuto di un corso da parte dei partecipanti del gruppo.
Ma quello che mi interessa soprattutto è che partire dal modello citato sopra permette di derivare una didattica coerente per il gruppo, senza dover aggiungere tecniche, suggerimenti, semplicemente perché l’esperienza ne ha confermato l’utilità. E’ la differenza tra una profilassi basata su una teoria biologica dei microorganismi e una profilassi basata sull’esperienza: fino ad un certo punto funzionano entrambe, ma la seconda finisce per dare origine ad una serie di pratiche magiche tramandate sulla base dell’autorità, alla nascita delle scuole e all’apparizione dei guru.
Dati come algoritmi: ne parlano tutti, a qualsiasi proposito, a volte anche confondendoli. E si capisce, perché gli algoritmi senza dati girano a vuoto. Si legge e si ascolta sempre più spesso “I dati ci dicono che”, “Andiamo a vedere i dati”, “Ci vogliono nascondere i veri dati”. Ma a forza di citarli come risposta finale a tutte le domande, anche la pubblica amministrazione ha capito che si possono usare a fini di comunicazione.
Dalla sindaca di Roma che traccia le biciclette sulle piste ciclabili al software della sottosegretaria Floridia che “calcola il flusso dei tragitti che gli studenti fanno per venire a scuola”, sembra che la nuova tendenza non sia quella di aumentare l’apertura dei dati esistenti, ma di aumentare i dati raccolti da parte della PA.
Tracciare i movimenti e gli accessi, registrare i dati prodotti da azioni umane, è il nuovo dispositivo che da solo certifica l’approach modern e anche smart di una governance near ai citizens. Prima ancora di dire qual è il progetto generale e come quei dati verranno utilizzati, si annuncia la loro raccolta. Come se questa da sola fosse sufficiente; come se ogni raccolta non contemplasse un filtro e una trasformazione; come se i dati si potessero usare senza archiviarli, con il rischio che qualcuno se ne impadronisca (come è successo più volte).
Sul versante opposto, dopo aver richiesto a gran voce la pubblicazione dei dati del COVID, adesso le voci si alzano contro la registrazione dei dati (per esempio, contro il Green Pass) a volte anche senza sapere esattamente quali dati vengono raccolti, da chi vengono trattati, dove vengono archiviati e per quanto tempo. Cosa dice, esattamente, il QR Code? Anzi: cosa ci nasconde?
L’impressione è che da entrambe le parti ci sia superficialità e che tutto si svolga intorno alla parola “dati” più che intorno al concetto di raccolta di dati. Raccogliere i dati è segno di attenzione al territorio oppure è un furto di identità da parte di un sistema sempre più Grande Fratello?
Dal lato della PA, i proclami sono sempre molto opachi sul come quei dati potranno essere utili a tutti i cittadini, su come verranno protetti ora e i futuro, su quali flussi seguiranno. E’ facile pensare che ogni passo nella direzione del monitoraggio dei cittadini (o degli studenti) possa essere un precedente per altri passi più invasivi. Se un Comune può monitorare i passaggi delle biciclette (che per il momento non hanno una targa, e quindi non possono essere ricondotte ad un proprietario), cosa impedirà domani di costruire un Bicivelox che permetta di aggiungere entrate nella casse del Comune stesso? Se vengono tracciati i percorsi casa-scuola degli studenti, cosa impedisce di farlo anche per i docenti? Eccetera. Sono domande che sorgono spontanee nel momento in cui non c’è la necessaria trasparenza sull’uso di quei dati, sulla base legale, sui limiti non solo tecnici.
L’effetto di questo aumento della presenza dei dati come salvatori o come diabolici si mostrerà presto, a mio parere, in un movimento intellettual/popolare di ribellione all’acquisizione di dati. Un movimento che si presenterà come unito per poi spaccarsi in due ali francamente mosse da interessi diversi.
La parte intellettuale sosterrà che l’acquisizione dei dati (o la trasformazione in dati di azioni) è la nuova forma di creazione di valore a partire dalla vita delle persone. Che sia una processo gestito da grandi soggetti privati o da soggetti pubblici, e indipendentemente dalla finalità, si chiederà che nessun modello di machine learning possa essere addestrato sulla base di comportamenti ad alto valore professionale.
Un caso particolare di questa critica riguarderà i professionisti che vedranno scomparire il loro valore e sul mercato man mano che i dati del loro comportamento professionale saranno accumulati e utilizzati per il training di modelli di Machine Learning. Traduttori, programmatori, giornalisti per primi, poi in futuro docenti, medici, avvocati, architetti si renderanno conto che vanno incontro alla scomparsa come i panda. Anche l’università, e la formazione professionale in generale, si accorgeranno finalmente che rischiano un radicale ridimensionamento.
La parte popolare si limiterà a invocare il diritto all’opacità di ogni cittadino di fronte allo Stato, a difendere una generica libertà individuale. In un’unica rivendicazione verranno inclusi i dati fiscali, quelli produttivi, quelli formativi. Sarà facile per i movimenti politici che già fanno leva su questo tipo di istanze libertarie (nel senso della libertà del singolo individuo) cavalcare anche questa rivendicazione all’interno di un progetto politico liberista che punta a ridurre la presenza dello stato nella società.
Penso che questi movimenti vadano distinti, e le loro motivazioni analizzate con chiarezza. Se è vero che i dati sono il nuovo petrolio, nel senso che l’estrazione dei dati dalle azioni delle persone è la fonte principale di valore, questo valore va rivendicato sempre, soprattutto quando su quella base si costruiscono servizi che vanno a sostituire professioni avviando un percorso senza ritorno di rinuncia alla conoscenza teorica. Ma si tratta di un modo di raccogliere e usare i dati che è proprio primariamente di un numero ristretto di grandissime aziende, e che sta funzionando da modello e attrattore anche per le altre. Questo non ci esime dal cercare di ottenere da queste aziende una forma di autocontrollo; ma possiamo anche cominciare a pensare di usare meno servizi “gratuiti”, cioè pagati con i nostri dati, e usarne di nuovi a pagamento che però diano maggiori garanzie di trasparenza. Piccoli passi che ci aiuterebbero anche ad uscire dal sostanziale monopolio di servizi digitali in cui ci troviamo ora.
Per questo è necessario che la PA sia trasparente per quanto riguarda i percorsi di questi dati: perché anche se i suoi scopi sono diversi, la maniera di raggiungerli potrebbe implicare un passaggio (a costi limitati o addirittura senza costi) proprio per uno o più di questi fornitori di servizi.
Non si tratta tanto di proteggere il diritto del cittadino a nascondere alla PA i propri comportamenti, magari sul bordo dell’illegalità, ma di sancire il diritto di ogni cittadino, nei confronti della propria PA, di sapere cosa viene registrato, a chi viene consegnato e per quali usi, ed eventualmente limitare questi usi, così come si è fatto nel caso dei dati personali dal GDPR. Ma se il GDPR era nato per proteggere le economie dei Paesi europei contro la concorrenza di altri Paesi un po’ più leggeri nella gestione dei dati personali, stavolta si tratta di proteggere i diritti prodotti dai cittadini stessi, che non sono dati personali ma appartengono comunque alla sfera del valore e non solo a quella della tecnica.
Come per quanto riguarda i dati personali, la via più facile sarebbe quella di anonimizzare i dati, in modo che non sia possibile risalire al cittadino da cui sono stati prodotti. Purtroppo è una strada scivolosa e difficile. Facciamo un esempio: l’anonimizzazione può essere applicata per default oppure solo su richiesta del cittadino.
Nel primo caso, siccome i dati hanno senso soprattutto quando vengono incrociati, bisogna costruire un cittadino-doppio, un avatar anonimo su cui convergano tutti i dati raccolti. Questo doppio, identificato da un codice univoco all’interno della PA, non potrebbe davvero perdere il legame con il cittadino reale, altrimenti non sarebbe più possibile collegare i nuovi dati raccolti a quelli precedenti. Quindi il problema si sposta semplicemente dai dati al codice, dal tesoro alla chiave.
Nel secondo caso, quello di un’anonimizzazione su richiesta esplicita da parte dei cittadino, sorge il problema della propagazione a catena dell’anonimizzazione su tutte le repliche dei dati. Senza un protocollo che impone di tenere traccia di ogni replica, di ogni accesso in copia, sarebbe evidentemente impossibile assicurare il cittadino che tutte le copie sono state anonimizzate.
Insomma, in pratica i dati prodotti da un cittadino e quelli identificativi del cittadino restano connessi. E di qui il problema.
Spesso si dice che siccome le persone hanno già ceduto la maggior parte dei propri dati ad aziende private (l’uso della carta di credito, l’uso del telefono, gli spostamenti fisici, la navigazione web e in generale l’uso di servizi via Internet, i propri interessi e preferenze, la propria rubrica) non ha senso preoccuparsi dei dati forniti alla PA. E’ il tipo di critica che si riceve quando si parla di protezione dei dati all’interno di un social network. Fa venire in mente lo scrutatore non votante che “si fa la doccia dieci volte ma ha le formiche sulla tavola”.
Credo invece che i discorsi vadano tenuti separati. Da una parte è possibile, anche se difficile, condurre una vita senza cedere i propri dati ad aziende private, nel momento in cui si riesce a rinunciare ai servizi, a pagamento o gratuiti che siano, che queste offrono in cambio dei dati stessi. Si può vivere senza usare Google Maps, senza Gmail, senza Android, senza Windows e naturalmente senza social network centralizzati. Si possono cercare alternative, gratuite o a pagamento. Si possono fornire dati imprecisi, contraddittori o parziali.
Ma non si può vivere senza carta di identità, senza pagare le tasse, senza un fascicolo sanitario. In un caso c’è un contratto esplicito, accettato, che prevede uno scambio più o meno trasparente di dati contro servizi. Nell’altro caso, il contratto tra la persona e lo stato inizialmente non viene nemmeno firmato dalla persona, ma dai genitori al momento dell’iscrizione all’anagrafe. Quel contratto non specifica cosa lo stato possa fare in seguito con i dati del cittadino, ma fa riferimento alla Costituzione, alle Leggi statali e regionali. Da quel contratto si può uscire veramente solo rifiutando del tutto ogni nazionalità, o scegliendone una diversa.
Per questo è importante che la PA sia in grado di esporre un protocollo di raccolta dei dati che sia chiaro, inattaccabile, funzionale.
Una delle situazioni in cui questo problema potrebbe presentarsi improvvisamente (anche se le premesse sono presenti da anni) è quello della raccolta dei dati nella piattaforme di DaD, o di e-learning. Il tracciamento del comportamento degli studenti (non solo i voti o gli accessi, ma la navigazione fine, la consultazione dei link e degli allegati, la scrittura di testi, la comunicazione orizzontale) può essere più o meno spinto, e può essere più o meno usato a vantaggio degli studenti stessi, per esempio per arricchire la valutazione con dati che descrivono il comportamento degli studenti (o di un gruppo di studenti) in tempo reale, senza bisogno di aspettare il momento del test. Dati che permettono di confrontare quello che sta succedendo con quello che, in situazioni simili, ci si attende che succeda. Lo stesso potrebbe succedere, a breve, relativamente alla registrazione dei dati dei docenti: accessi, comunicazione con gli studenti, creazione di contenuti aggiuntivi, valutazione.
Da un lato è evidente che questi dati potrebbero essere usati per aiutare i docenti e i corsisti, o anche gli autori di contenuti, o i progettisti delle piattaforme; dall’altro, questi dati potrebbero essere usati per selezionare gli studenti ancora prima del termine del loro corso di formazione (come nel caso di alcuni MOOC), oppure per controllare il lavoro dei docenti e sanzionarne comportamenti inadeguati. O infine, e qui torniamo a quanto detto sopra, per costruire un modello di docente che sia in grado di fare lezione, correggere gli esercizi, assegnare voti.
Anche in questo caso occorrerebbe sbrigarsi a regolamentare cosa può essere raccolto, con che finalità, per quanto tempo.
Alcune ipotesi di lavoro.
1. Si può chiedere ad una PA di fornire un bilancio tra i servizi forniti grazie all’acquisizione di dati dei cittadini e la necessaria sottrazione di privacy dei cittadini stessi. Ci saranno casi in cui i vantaggi superano gli svantaggi, ed altri in cui l’acquisizione di dati non è giustificabile. Un bilancio che dovrebbe essere pubblico, facilmente leggibile dal maggior numero di cittadini, aggiornato frequentemente.
2. Si può chiedere ai poteri legislativi di stabilire, una volta per tutte, che i dati prodotti dalle azioni dei cittadini (come quelli che ne definiscono l’identità) vengano riconosciuti come di proprietà dei cittadini stessi. Non è un passo semplice, perché i dati non sono oggetti fisici che una volta ceduti non sono più di proprietà del precedente proprietario. I dati di cui parliamo non hanno nemmeno le caratteristiche dei prodotti dell’ingegno, che devono essere originali. Un’altra difficoltà deriva dal fatto che questa richiesta potrebbe andare in direzione opposta, almeno apparentemente, a quella dell’apertura dei dati pubblici. Andrebbe applicata una licenza permissiva ma con caratteristiche speciali: per esempio, dovrebbe essere possibile tracciare l’uso dei dati e rendere possibile la propagazione del blocco del loro utilizzo.
3. Questa legge dovrebbe anche stabilire che il trattamento di quei dati deve avere come finalità primaria il vantaggio dei cittadini e non del sistema organizzativo. I cittadini, attraverso i loro dati, dovrebbero sempre essere considerati un fine e mai un mezzo, come reciterebbe la versione moderna del principio regolativo kantiano.
Quali cittadini? Solo quelli a cui appartengono i dati, o tutti? E’ evidente che scienze come l’epidemiologia hanno bisogno dei dati di tutta la popolazione per provare a fare ipotesi significative. Insomma, i principi non bastano, ci vuole ancora tanto lavoro. Ma sarebbe ora di iniziare a farlo.
La formazione professionale ha senso se esiste una professione d’arrivo, cioè se esiste il contesto in cui una certa competenza può essere esercitata, riconosciuta, richiesta, pagata. Quando il contesto scompare, scompare la professione, e scompare anche la formazione. E’ questo lo scenario che ci aspetta grazie alla creazione di modelli di Machine Learning addestrati a partire dai dati d’uso dei professionisti come traduttori, programmatori, giornalisti. Sembra curioso che il mondo della formazione non se ne renda pienamente conto.
1 “The grand object therefore of the modern manufacturer is, through the union of capital and science, to reduce the task of his work-people to the exercise of vigilance and dexterity” (Andrew Ure – The Philosophy of the Manufacturers (1835)
La fabbrica ottocentesca ha cancellato una serie di mestieri artigianali e la formazione relativa che avveniva nella bottega. Lo stesso è successo con l’agricoltura motorizzata che ha rimpiazzato i contadini e il passaggio delle competenza all’interno della famiglia. Si trattava di mestieri manuali che però richiedevano una competenza alta: zappare la terra, checché se ne dica, è operazione complessa oltre che faticosa. C’è stata una doppia sostituzione: la forza biologica è stata sostituita da forza inanimata (acqua, vento, vapore), mentre la mano è stata sostituita da un dispositivo meccanico. L’uomo serve ancora, ma solo come controllore di processo.
Questo processo è stato letto come un effetto della specifica maniera di produzione capitalista che ha condotto alla soppressione di milioni di posti di lavoro e alla miseria di milioni di famiglie; oppure come una generale promozione umana dal mondo del lavoro fisico a quello del lavoro intellettuale. Marx nel Capitale cita Aristotele: “se ogni strumento potesse compiere su comando o anche per previsione l’opera ad esso spettante, allo stesso modo che gli artifici di Dedalo si muovevano da sè o i tripodi di Efesto di proprio impulso intraprendevano il loro sacro lavoro, se in questo stesso modo le spole dei tessitori tessessero da sè, il maestro d’arte non avrebbe bisogno dei suoi aiutanti e il padrone non avrebbe bisogno dei suoi schiavi”. Non è la macchina in astratto a creare la disoccupazione e le condizioni di lavoro alienato, ma la maniera specifica in cui viene inserita nel processo produttivo.
Il fatto che il lavoro di aratura una volta fosse eseguito a mano, poi da una macchina semplice che usa un’energia non umana (un aratro mosso da un cavallo) e infine da un trattore, non ha cancellato il sapere sull’aratura: era comunque necessario che qualcuno sapesse come si deve arare, a che profondità, quando. La conoscenza teorica doveva esistere ed essere trasmessa e integrata nella macchina, mentre la competenza pratica poteva scomparire senza danni. Al posto dell’esperienza, trasmessa nella famiglia o nel laboratorio artigianale, arrivava la scienza, sulla base della quale si poteva progettare un algoritmo e costruire una macchina. Ma restava importante nella società il ruolo della formazione (dell’università, della scuola) come luogo di elaborazione e trasmissione di quella scienza.
2 Quello che sta succedendo oggi è qualcosa di diverso. Non è la mano con la pinza ad essere sostituita, ma la mano con la penna. Non sono i compiti di trasformazione della materia ad essere oggetto di ripensamento, ma quelli di trasformazione delle parole. Questo è reso possibile dall’inserimento di una macchina speciale (il computer) nel mercato del lavoro intellettuale. Anche la maniera in cui vengono inseriti è nuova.
I computer sono nati per fare calcoli complessi, calcoli che gli umani svolgevano in un tempo maggiore e con una possibilità di errore variabile. Tutti ormai conoscono la storia delle calcolatrici umane della NASA (“computer”). Il passo successivo è stato quello di collegare al computer un ricettore e un effettore fisico. In questo modo, oltre a fare i calcoli, il computer è diventato soprattutto un dispositivo che trasforma un algoritmo astratto in un gruppo di azioni fisiche, le quali vengono svolte non solo in una sequenza prefissata, come nel caso dei telai Jacquard, ma in base al presentarsi o meno di certe situazioni. Le lavabiancheria programmabili sono un buon esempio di questo livello di integrazione: un programma è costituito da una serie di controlli (livello dell’acqua, tempo trascorso, temperatura) e di azioni corrispondenti.
Ancora più avanti, i computer sono stati miniaturizzati e usati non direttamente per controllare macchine complesse, ma per supportare gli umani nel loro uso. Una autovettura moderna sarebbe difficile da guidare, ma anche da gestire, se non ci fosse un computer di bordo che raccoglie i dati, li elabora secondo modelli, e avverte il conduttore al superamento di condizioni di rischio (carburante in esaurimento entro X chilometri, pneumatici sgonfi, eccetera). In alcuni casi le autovetture sono in grado di effettuare da soli queste correzioni, come nel caso dell’intervento dell’ABS.
Tecnicamente cambia poco quando l’utente non è il consumatore ma il professionista, cioè quando è la sfera del lavoro ad essere investita dalla trasformazione. Anche i software di supporto alle professioni esistono da tempo: i meccanici usano software come supporto alla diagnosi delle autovetture, i giornalisti e i traduttori usano software che li aiutano nella scrittura, i docenti usano piattaforme che li aiutano a intercettare rapidamente un problema di apprendimento degli studenti. Anche in questo caso, si tratta di software che controllano i valori di alcuni parametri e sulla base di un modello di riferimento avvertono l’utente o gli forniscono suggerimenti di correzione. La differenza è che il computer è un ausilio del professionista nel suo operare verso terzi, quindi interviene mettendosi al suo stesso livello. E’ ancora un alleato, invisibile per il cliente.
3 Il passo successivo cambia completamente il quadro: il software si propone direttamente al cliente nella forma di servizio. Software che non si limitano a raccogliere dati, confrontarli con un riferimento atteso e suggerire eventuali correzioni, ma che sulla base di un modello addestrato a partire da un’enorme quantità di dati raccolti dalle performance di milioni di professionisti, e sulla base di tecnologie di machine learning, sono in grado di svolgere gli stessi compiti di questi professionisti e di offrirsi sul mercato in concorrenza.
Attualmente si vedono i primi esempi nei settori che sono circoscritti alla produzione di testi scritti: la creazione di riassunti o di brevi testi, la traduzione, la scrittura di programmi.
La traduzione automatica, il sogno fondante delle ricerche sull’Intelligenza Artificiale negli anni ’60, è ormai sufficientemente precisa da poter essere usata a livello semi-professionale. Non si possono ancora tradurre automaticamente romanzi in cui lo stile vada preservato, ma si possono tradurre brevi testi in cui il contenuto è quello che conta . Oltre ai più noti Bing Translator e Google Translate, ci sono software come DeepL, sviluppati da piccole aziende che restituiscono testi ben scritti, coerenti, fluidi. Ma mentre lo scopo principale di queste ultime è quello di vendere il proprio servizio come tale, lo scopo dei corrispondenti sevizi di Microsoft e Google è più ampio, e permette ai soggetti in questione di offrire gratuitamente, al momento, questo servizio; magari per inserirlo prossimamente come funzionalità aggiuntiva nelle suite di strumenti per l’ufficio che entrambi forniscono. Questo fa sì che studenti, professionisti, aziende che hanno bisogno di produrre un testo tradotto già oggi non fanno più ricorso ad un traduttore umano, che ha un costo che varia in base alla lingua (cioè alla disponibilità sul mercato di traduttori competenti nella coppia di lingue), ma si contentano della traduzione automatica. Così facendo, aumentano la base di dati su cui i modelli si addestrano, e migliorano la qualità del servizio.
I traduttori cominciano a soffrire per questa riduzione di lavoro e reagiscono difendendo “il plus umano”, specializzandosi in domini sempre più piccoli, volgendosi ai campi in cui lo stile è decisivo. Ma si tratta di strategie destinate a fallire: più aumenta il loro livello qualitativo e la loro specializzazione, più dati forniscono ai software di supporto alla traduzione, più diventano efficaci i software di traduzione automatica. Questa differenza è enorme, e rende la situazione molto diversa da quelle precedenti. Si crea un circolo vizioso da cui il professionista non può uscire. Attenzione: il circolo non dipende genericamente dall’uso di una macchina al posto di un uomo, o dall’uso della macchina computer in particolare, ma da questa particolare maniera di costruire competenza artificiale a partire dalla competenza umana.
L’aspetto che non è abbastanza sottolineato, a mio parere, è l’influsso che questa sostituzione ha sulla formazione professionale (nella quale è inclusa anche la formazione universitaria).
Man mano che si incrina il mestiere del traduttore, diventa inutile la formazione relativa, se non quella di altissimo livello (la traduzione letteraria, quella specialistica) che però farà fatica a trovare studenti che abbiano il livello necessario. Scompariranno i corsi base per interpreti e traduttori; ci si domanda se scompariranno anche i corsi di lingua, visto che per le necessità comuni tutto sommato un software è in grado anche da fungere da interprete. In ogni caso, già ora gli studenti di lingue sanno bene che il lavoro di traduttore è destinato a scomparire. I sottotitoli delle serie televisive vengono generati automaticamente (con qualità ancora scarsa); ma questo significa che non vale la pena per un ragazzo investire nell’apprendimento delle lingue pensando ad un futuro professionale in questo settore.
D’altra parte, i software di traduzione automatica non sono il frutto di un lavoro misto di linguisti e ingegneri, ma sono sempre di più basati su modelli costruiti sulla base di larghissimi esempi (machine learning). Questo renderà inutile la trasmissione alle generazioni future della conoscenza linguistica che sta alla base di un processo di traduzione umano. Dopo i corsi di traduzione e i corsi di lingua, scompariranno anche i corsi di linguistica e resteranno solo i corsi di machine learning.
4 Va beh, ma tradurre in fondo è semplice. La competenza della scrittura originale, quella, resterà sempre in mano agli umani. La creatività, ah la creatività.
Insomma. A prescindere dai software “tradizionali”, che sono in grado di creare plot narrativi a partire da personaggi e target (alcuni esempi sono raccolti qui), è il mondo del giornalismo che sta per essere investito dallo tsunami del machine learning. Non domani, adesso. Basta leggere quello che fa Asimov, un sistema della startup romana ASC27. Non sostituisce il giornalista (per ora), ma si presenta come il suo AI Collegue. Fa un sacco di lavoro sporco per i social network:: traduce il testo in audio, crea podcast oppure storie per Instagram; ma individua i trend di un settore, li traduce in strutture dati ed è in grado di scrivere dei drafts di articoli.
Se non ci credete, potete sempre provare con uno dei tanti colleghji di Asimov: per esempio, Sassbook Ai Writer.
5 La stessa cosa sta succedendo per la programmazione, come dimostra il caso di Microsoft AI Copilot. Nel primo periodo di test i programmatori saranno solo aiutati dal “copilota”, che si limiterà a suggerire il codice sorgente adatto al compito descritto dal programmatore. Ma una volta diffuso largamente, come plugin di Visual Studio, e una volta raccolti ancora più dati, AI Copilot si trasformerà in un servizio in grado di produrre autonomamente il codice sorgente.
A quel punto, non sarà più necessario per un’azienda assumere un programmatore senior o particolarmente creativo: qualunque junior potrà realizzare qualsiasi compito gli venga assegnato, esattamente come agli operai adulti e competenti si poteva sostituire un bambino nella fabbrica ottocentesca. E’ il sogno democratico americano: tutti possono diventare programmatori, con un po’ d’aiuto da parte di un guru, o di un modello di machine learning. L’arrivo sul mercato di un’ondata di programmatori junior, sempre più giovani, sempre meno formati ufficialmente, avrà l’effetto di cacciare fuori i programmatori senior, di abbassare il costo del lavoro del programmatore, di rendere inutili i corsi di formazione avanzati e i diplomi universitari. Si può anche discutere sul fatto che la qualità media del codice prodotto si abbassi: potrebbe anche darsi che il livello medio resti costante o addirittura salga. Viceversa, si potrebbe ipotizzare una standardizzazione che non presenterà picchi né in alto, né in basso. Codice corretto, funzionante, ma non innovativo, perché discendente da codice sorgente scritto in precedenza (per il momento, quello pubblicato in GitHub). Se a regime tutte le aziende usassero Ai Copilot, o un suo equivalente targato Google, anche la base di partenza su cui viene costruito il modello si uniformerebbe, con conseguente appiattimento del codice prodotto.
6 Ma senza proseguire in questa direzione, che è specifica del mondo della creazione del software in cui il prodotto di un software è esso stesso un software, in tutti gli altri casi possiamo fermarci alla fase 1: quella per cui ogni lavoro di produzione intellettuale che possa essere sostituito del tutto o in parte da un software andrà a scendere di posizione sociale, e quindi di valore economico, rendendo di conseguenza poco attraente la formazione relativa, che finirà per scomparire.
Una versione fantascientifica di questo processo prevede che ci sia una fase 2, in cui non sarà più necessario che ci siano programmatori umani a scrivere codice sorgente sulla base delle specifiche fornite dall’analista sulla base dei bisogni raccolti, ma sarà sufficiente che l’esperto del dominio applicativo di quel software descriva suoi bisogni perché l’AI Coder produca il software finale. Verrà quindi eliminata anche la figura dell’analista, e l’autore del software sarà un esperto che non ha le competenze per scriverlo o leggerlo. Ma poiché questa attività (scrivere il codice sorgente necessario per un certo compito) fa parte delle cose che sanno fare i software, il passo successivo sarà quello per cui l’idea stessa di scrittura del codice come atto separato sarà sostituita da una funzionalità aggiuntiva di ogni software, attivabile in continuo e non solo in certi momenti particolari. Tutti i software saranno dotati della capacità di crescere, di ripararsi, ed eventualmente generare cloni. E’ curioso, se ci si pensa, che lo scenario apocalittico di tanti film sul AI che prende il sopravvento della macchina sull’umano abbia come protagonisti i robot, e non i software, che sono molto più diffusi e molto più vicini all’autonomia.
Questo processo è diverso dal corrispondente processo di sostituzione dell’operaio competente con una macchina, perché in questo caso – grazie al Machine Learning che impara dati dati, non applica una teoria – anche la conoscenza teorica che permetteva di disegnare l’automazione verrà resa inutile. Non soltanto non sarà più necessario che sia un essere umano a scrivere un programma (o a effettuare una traduzione o scrivere un articolo); ma ad un livello superiore, non ci sarà nessuno in grado di verificare un testo, di correggerlo, di deciderne l’applicabilità ad un contesto.
Si può immaginare che per un certo periodo resti attiva una formazione ultra-specifica, riservata a pochissimi eletti, che sfoci in una nuova professione: il controllore umano. Si tratterebbe peraltro di un periodo di transizione, in attesa che anche questa competenza possa essere imitata ad un software.
Sul piano sociale, un effetto prevedibile potrebbe essere la nascita di un movimento neoluddista (sulla scorta del movimento che ha accompagnato la diffusione delle fabbriche), a cui parteciperebbero tutti i professionisti formati tradizionalmente, i quali si rifiuterebbero di fornire i propri prodotti come sorgente di apprendimento per i modelli di ML. Qui non siamo nella fantascienza ma nella storia: è quello che hanno cominciato a dire alcuni programmatori a proposito dell’uso del codice sorgente di Github da parte di Microsoft per nutrire il modello di AI Copilot: o GitHub cambia licenza, oppure togliamo il nostro codice da lì.
7 Se si trattasse di un processo naturale, di un movimento universale e necessario, potremmo pensare che l’umanità – o almeno la sua parte più ricca – dopo aver smesso di compiere lavori fisici smetterà anche di compiere lavori intellettuali, e si trasformerà in una specie dedita al godimento estetica, cancellando finalmente l’etica del lavoro e del merito.
Più realisticamente, potremmo immaginare che in aree geografiche del mondo in cui le persone che hanno delle competenze di valore sono rare – perché manca la formazione, perché non c’è un mercato, perché sono aree a rischio, perché i numeri sono troppo grandi – il software potrebbe sostituirle. In Paesi in stato perenne di guerra o di carestia è difficile trovare traduttori, giornalisti, programmatori (ma soprattutto docenti, medici, avvocati).
Allora ecco che il surplus tecnologico andrebbe a colmare quei vuoti.
Certo, ci sarebbe sempre una distanza: i Paesi ricchi si potrebbero permettere dei professionisti “veri”, supportati dai vari Collegues, Companions, Copilots, mentre i Paesi poveri avrebbero a disposizione solo quelli “artificiali”. Ma la crescita culturale che ne seguirebbe potrebbe anche modificare gli equilibri e creare più cultura a livello mondiale.
Il problema è proprio che questo non è un fenomeno naturale. C’è di mezzo la volontà precisa di alcune imprese di indirizzare in quella direzione l’uso dell’informatica, di fare profitto in questo specifico modo. Queste imprese intendono sostituirsi su scala planetaria al “motore della storia della tecnica” facendo delle scelte che tendono all’eliminazione delle professioni nelle aree ricche del mondo, e alla loro sostituzione da parte di “servizi”.
Inoltre, non cercano semplicemente il guadagno, come fa ogni impresa for profit, ma cercano di semplificare e controllare tutti gli aspetti della vita umana, per il bene dell’umanità. Già oggi non serve saper leggere una mappa, non serve sapere le lingue; e presto non servirà rivolgersi ad un programmatore. Basta affidarsi all’assistente privato, che si chiami Alexa, Siri, Cortana.
E’ importante vedere la non naturalità di questo processo, perché solo così si può pensare di invertirlo o almeno creare delle alternative (come, ad esempio Mycroft che si presenta come alternativa opensource agli assistenti vocali). Non è l’unica maniera in cui il digitale può evolversi, anche se è al momento quella più probabile. Bisogna riuscire a pensare una differenza.
E’ la differenza che è presente nell’analisi contenuta nel Capitale delle macchine ottocentesche tra strumenti usati nella manifattura e macchinario nella fabbrica:
“Nella manifattura e nell’artigianato l’operaio si serve dello strumento, nella fabbrica è l’operaio che serve la macchina. Là dall’operaio parte il movimento del mezzo di lavoro, il cui movimento qui egli deve seguire. Nella manifattura gli operai costituiscono le articolazioni di un meccanismo vivente. Nella fabbrica esiste un meccanismo morto indipendente da essi, e gli operai gli sono incorporati come appendici umane” (Libro I, Sez. IV, Cap 13).
E’ la differenza tra software come strumento (pannello di controllo, verifica, etc ) che aiuta e il software come macchinario che sostituisce.
Non è necessario che il software debba trasformarsi in macchina di cui le persone sono appendici. Si può ancora puntare a realizzare software che seguano il movimento delle persone, e non che lo impongano. Si può ancora immaginare una produzione di software che è volta al profitto – cioè al sostentamento di chi ci lavora – ma non al dominio totale di ogni aspetto della società.
E’ questa mancanza di pensiero alternativo che ci sta consegnando con le mani legate ad un futuro agghiacciante.
Il risultato è (spesso) la lezione frontale via videoconferenza, l’interazione come scambio di documenti da ufficio, la valutazione tramite quiz online.
Confusi o confuse?
Non c’è nessun errore, volevo proprio dire che la tecnologia usata per la DaD è del tutto tradizionale. L’equivoco nasce perché “tecnologia” viene sempre associata a innovazione (nella tautologica espressione “nuove tecnologie”), ancora di più quando è sovraccaricata con il pleonastico “digitale”. Ma non è vero. Non c’è nessuna innovazione nell’usare le piattaforme a cui siamo ormai abituati perché sono le stesse che usiamo a casa. La TDT è onnipresente, è l’acquario dentro cui siamo tutti, ormai da tempo, per tutto il tempo. Tradizionale in fondo significa trasparente, naturale. Significa usato e non costruito, né decostruito. Tradizionale significa aderente ad un modello non esplicito, se non nascosto. Si fanno cose secondo una regola che non è percepita come tale. Si chiede di spegnere webcam, accendere microfoni, come se fosse una necessità didattica, mentre è un vincolo dell’ambiente tecnologico. Ci si preoccupa del problema del riconoscimento dello studente all’esame, del problema di come impedire che imbrogli e copi, di come superare il digital divide che impedisce agli studenti di famiglie disagiate di collegarsi in video, senza accorgersi che il contesto in cui questi diventano problemi è stato imposto dalla piattaforma, dalla TDT. Il modello della DaD è la somma del modello didattico tradizionale con quello delle tecnologie attuali.
Il problema della tecnologia didattica tradizionale è proprio la sua invisibilità. Lo condivide con tutto il resto delle tecnologie non didattiche. E non è un caso: si tratta dei primi passi di un processo di colonizzazione del mondo dell’educazione, dopo quello della formazione aziendale. Un motore di ricerca non rende evidente l’algoritmo di indicizzazione (quindi di filtro) e di ordinamento dei risultati (quindi di indirizzamento). Un catalogo online parte dal profilo del cliente (passato e futuro) nel costruire la rappresentazione virtuale del magazzino.
Tutte le piattaforme, o per lo meno quelle usate nella maggior parte dei casi, portano dentro di loro un modello non solo didattico tradizionale (la lezione, i compiti), ma anche un modello di relazione tra utente e fornitore basato sullo scambio servizi/dati. Servizi gratuiti contro dati personali: scelte, testi, agenda, rubrica. Siamo al di là del modello consumistica, in cui lo scambio merci/denaro almeno era visibile e riguardava oggetti, e in qualche modo controllabile da entrambi i lati.
Naturalmente se si vuole cambiare strada bisogna cambiare entrambi i termini dell’addizione. Non basta una didattica aperta, ispirata ai Maestri, se si accettano gli strumenti tradizionali. Bisogna provare a scegliere e usare strumenti diversi, che siano aperti, che non abbiano dietro interessi estranei, che siano plurali.
E se non ci sono, bisogna costruirli e fare in modo che siano sostenibili.
Sono fissato con le metafore, da sempre. Le ho studiate dai tempi della tesi sui modelli in fisica. Penso ancora che siano utili ad andare oltre i primi aspetti visibili di un fenomeno, utili come stimoli per andare a cercare qualche aspetto nascosto facendosi guidare dalle corrispondenze con gli aspetti di altri fenomeni. La metafora è una macchina per fare scoperte. Ma perché dovrebbe funzionare? Forse perché alcuni processi naturali sono più simili di quello che sembra. Usare le metafore è anche un modo di riconoscere, o verificare, questa similitudine. Per esempio, la radicazione delle piante e l’apprendimento degli umani. Sono entrambi processi naturali. Hanno a che fare con la sopravvivenza. Il primo l’abbiamo studiato per millenni, e abbiamo imparato a sostenerlo e favorirlo. Il secondo… qui siamo un po’ più scarsini, lo studiamo da troppo poco tempo. E usiamo le metafore sbagliate.
Breve riassunto di cosa è la radicazione. Abbiate pazienza perché potreste scoprire cose sorprendenti. Le radici di una pianta crescono in verticale, in orizzontale, insomma dove e come possono. Verso dove? principalmente verso dove c’è acqua o sostanze nutrienti. Se la pianta è stata infilata in un tubo di cemento, le radici sono costrette a crescere verso il basso. Se è nata in dieci centimetri di terriccio, le radici si allargheranno. Ma ci sono anche delle preferenze legate alla specie: le radici degli abeti sono in genere superficiali, quelle dei larici vanno in profondità.
Le radici hanno anche altre funzioni, alcune note (reggere in piedi la pianta), alcune non chiarissime, come nel caso dei cipressi calvi. Le radici da sole non riuscirebbero a nutrire la pianta, e spesso formano una simbiosi con alcuni funghi, un contratto in cui si scambiano nutrienti: le micorrize. E’ il motivo per cui i porcini si trovano vicino ai castagni e i tartufi vicino alle querce. In alcuni casi le radici colonizzano il terreno, emettendo delle sostanze tossiche per le altre radici (lo fanno il pesco e il noce). Le radici di altre specie invece si intrecciano, per così dire, volentieri: è il caso dell’olmo e della vite. Il processo di crescita delle radici è in generale lento, ma non continuo. Nelle nostre zone, ci sono due periodi di accrescimenti: la primavere e l’autunno. Quando fa troppo caldo, o troppo freddo, le radici non crescono.
Se decidiamo di piantare un albero, di solito scegliamo un terreno adatto: acido, non acido, fresco, argilloso. Adatto non significa sempre la stessa cosa: alcuni alberi vengono piantati in terreni aridi perché si sa che non hanno bisogno di molta acqua, altri in terreni acquitrinosi perché si sa che ne assorbiranno la maggior parte. Certo bisogna conoscere i tipi di terreni e le caratteristiche delle specie arboree. Gli alberi giovani, quelli appena nati, hanno bisogno di molta attenzione. Devono cominciare a crearsi della radici solide, prima in giù e poi intorno. Perciò li aiutiamo con un terreno soffice e ricco, gli diamo l’acqua di cui hanno bisogno, controlliamo che stiano crescendo in maniera armoniosa. Poi, quando sono diventato un po’ più grandi, li trapiantiamo altrove e se la vedono da soli. Ma spesso decidiamo di piantare un albero dove da solo non attecchirebbe mai, con la tipica attitudine dei colonizzatori. In questo caso la responsabilità ricade su di noi: senza un po’ di aiuto da parte nostra non arriverebbe a svilupparsi e a portare frutti. Un po’ d’aiuto, non troppo: si sa che fornire tutta l’acqua necessaria non è una buona idea, perché limita la radicazione, con effetti sia sulla quantità di nutrienti che la pianta riesce ad assorbire, sia sulla stabilità della pianta. I pini sui viali caduti alla prima burrasca ne sono un esempio evidente.
Ora mettiamo in moto la metafora, spostiamoci nell’altra area e proviamo a cercare corrispondenze. L’apprendimento visto come un processo di radicazione. Cioè di esplorazione, di crescita di rami invisibili che servono ad acquisire risorse, a sorreggere l’organismo, insomma funzionali alla sopravvivenza e al benessere. Dell’individuo, della specie. Un processo che si indirizza, nell’ambito delle direzioni possibili, verso quelle più promettenti. Un processo che può essere aiutato o guidato dall’esterno. Ma non gestito. Ci vogliono degli ambienti adatti, soprattutto nelle prime fasi. Ma è inutile fornire tutte le risorse, tutte in una volta. Ci deve essere una zona di sviluppo prossimale che si allarga (ah sì, qualcuno l’aveva già detto). Certe aree (certe rizosfere) sono dure, secche, più difficili da penetrare per le radici; altre sembrano soffici, ma non contengono abbastanza sali minerali. Non ci si può aspettare che le radici si espandono alla stessa velocità e nella stessa direzione. Qualche volta si può andare in profondità, qualche volta si resta in superficie. Inutile aspettarsi che sia un processo continuo e uguale per tutti: ci sono stagioni, momenti; ci sono stili personali. Alcuni apprendono velocemente, altri lentamente. Bisogna seguirli tutto il tempo, non solo una volta l’anno. Alcuni hanno bisogno di molto spazio e di molte risorse, altri se la cavano con poco. Bisogna evitare fame e indigestioni. Alcuni apprendono meglio insieme ad altri. Alcuni infastidiscono gli altri per trovarsi da soli. Accorgersene e smistare non è una questione marginale, organizzativa, è proprio un pezzo del compito del supporto all’apprendimento. Nei momenti difficili, possono essere aiutati con degli strumenti simbiotici, come i computer, che sono capaci di trasformare risorse indigeribili in nutrienti. E così via.
Sono cose banali, che ogni insegnante sa? Può darsi. In teoria. In pratica invece qualcuno pensa solo a trasmettere conoscenze, non a favorire l’apprendimento. Pensa che la conoscenza stia lì, nei libri, o su internet, e che sia sufficiente un cartello stradale per trovarla.
Pensa che educazione e formazione siano solo parole diverse per indicare un processo di vasi comunicanti: all’inizio uno è pieno e l’altro vuoto, poi piano piano, automaticamente, il liquido passa dall’uno all’altro. A volte si usa un imbuto per andare più veloci. Alla fine il risultato è un nuovo vaso pieno di quello stesso liquido, pronto per riempire altri vasi.
Pensa che il risultato finale sia proporzionale alla quantità di contenuti che ha fornito. Pensa a trasmettere in fretta, perché “dieci anni fa in questo periodo eravamo già arrivati alle guerre d’indipendenza”. Non tiene conto delle interazioni tra studenti, anzi se può le impedisce. Non tiene conto della qualità dell’ambiente, solo della quantità. Non monitora la velocità con cui gli studenti diventano sempre più autonomi, si limita a valutarne la conformità allo stadio previsto. Si aspetta che tutti gli studenti raggiungano lo stesso livello. Se qualcuno non ce la fa, beh, è colpa sua. Come diceva Michele Apicella in Bianca: “Hai troppo sole, poco sole, cos’è che vuoi? Più acqua, meno acqua?”
Conoscete qualcuno che in pratica si comporta più o meno in questo modo? Sì? Allora ditegli che non funziona. I suoi alberi, coltivati così, sarebbero crepati.
Fantasia e tecnica non vanno d’accordo, si direbbe. Meno ancora fantasia e tecnologia: se c’è una, scompare l’altra. Quando entra in campo la tecnologia, il libero gioco dell’immaginazione dove va a finire? Però, però…
La tecnica del sasso nello stagno è descritta da Gianni Rodari nel secondo capitolo della Grammatica della Fantasia, come parte dello strumentario che serve a chi vuole inventare storie per i bambini, o con i bambini. E’ una tecnica fondata sulle relazioni che uniscono parole nella mente, ma anche sul potere del caso nel sorprenderci e generare l’inizio di una storia.
Si pensa una parola… o meglio: la si chiede a qualcuno che passa di là, oppure la si pesca da un dizionario, o da un libro. Perché un libro? Perché è ancora più casuale, e dunque più sorprendente. Apri il libro a pagina 27, prendi la terza parola della quinta riga. Poi si parte da quella parola per esplorare una serie di associazioni che servono a far emergere altre parole. Per esempio, partendo da stasera possiamo andare a cercare:
le parole che cominciano allo stesso modo: stabilire, staccare, stagione, storia, studiare, stupido, …
le parole che finiscono allo stesso modo , cioè che sono più o meno in rima con stasera: camera, eccetera, lettera, maniera, opera
le parole simili, che si usano nello stesso contesto: stamattina, stanotte, prima, dopo, più tardi
E già nasce una storia:
Stasera, in camera, apro una lettera: sempre la stessa storia, la solita maniera, come un’opera eccetera eccetera – stupido! –
fino ad usare la lettere che compongono la parola per fare un acrostico:
Strada
Treno
Anima
Sangue
Egli
Ritornare
Appunto
Tutte queste parole nuove possono essere usate per creare una storia o una filastrocca. Posiamo programmare un computer per fare (almeno una parte di) queste operazioni? Sì, ed è quello che ho fatto qui con iKojo, la versione online di Kojo: http://ikojo.in/sf/vylXgjC/10 Cliccate su RUN, prendete nota delle parole che vengono fuori (compreso l’acrostico) e poi iniziate a scrivere. A me, partendo dall’acrostico di sopra – generato appunto dal programma – viene in mente una storia titanica (nel senso del film):
Lui è partito, col treno, chissà quanta strada ha fatto, ma ama lei fin nel profondo dell’anima. Lo ha giurato col sangue. Le aveva detto che sarebbe tornato, una sera di queste, e appunto, stasera…
Fa piangere già così, immaginate se poi lui stasera non dovesse arrivare …
Un altro risultato del Sasso nello Stagno
Il binomio fantastico è un’altra tecnica notissima, sempre dai primi capitoli della Grammatica. Qui si prendono due parole a caso, possibilmente dalla mente di due persone diverse, o ancora una volta da un dizionario, da un giornale (dal web?). Gli esempi di Rodari riguardano due sostantivi, ma non si vede perché non si potrebbero usare aggettivi o verbi; anzi, ci sono splendidi esempi di applicazione di questa variante nei racconti che mettono in scena i gemelli terribili, Marco e Mirko: “il leone bela”, “il lupo è dolce”, “il cielo è maturo”. I due sostantivi si mettono insieme usando delle preposizioni: con, di, su, in (ma io aggiungerei: sotto, sopra, con, senza…). Cosa fanno? si incontrano, si scontrano, vanno d’amore e d’accordo? Per esempio: sasso, stagno (guarda un po’ che fantasia…)
il sasso nello stagno
il sasso di stagno
il sasso sotto lo stagno
lo stagno del sasso eccetera.
Ogni frase può essere l’inizio di una storia. A me il sasso di stagno piace molto, mi fa pensare ad una palla di carta stagnola, di quelle della cioccolata, che usavo per giocare a calcio in corridoio da piccolo. E’ un sasso gentile e bellissimo, luccica come una pepita.
Una volta un minatore che lavorava a Canale Serci, sul monte Mannu, volle fare una sorpresa a suo figlio di tre anni e gli portò un sasso di stagno. Ma non era un sasso, era …
Se preferite, partiamo con una filastrocca. Il sasso di stagno richiama subito un ragno dispettoso, forse geloso, ma di chi? facile: di un cigno
Quel sasso di stagno tirato da un ragno geloso di un cigno più bianco del regno…
Di nuovo vi chiedo: potremmo programmare un computer per fare (almeno una parte di) queste operazioni? Sì, ed è quello che ho fatto qui: http://ikojo.in/sf/EnNhE3O/12 Cliccate su RUN e state a guardare.
Sull’importanza del caso, sulla sua magia che ci costringe a renderci conto di quello che siamo (esseri che non possono impedirsi di dare senso a qualsiasi configurazione casuale, che vedono strutture chiuse ovunque) e sulla sua importanza per la didattica ho già scritto qui.
Se date un’occhiata al codice sorgente (a sinistra) vedete che a dispetto della semplicità apparente c’è invece parecchio lavoro sotterraneo per riuscire a mettere un articolo davanti ad un nome, o per costruire la preposizione articolata corretta. Non perché sia difficile la programmazione: perché è difficile la grammatica italiana, che deve dar conto di quasi mille anni di storia, di prestiti, di varianti locali, di sovrapposizioni. Anche questo è un esercizio di coding interessante, che richiede riflessione su come funzionano i meccanismi della lingua per poterli trasformare in algoritmi. Non è sempre necessario ricostruire tutto da capo, si può partire da pezzettini già pronti – è quello che ho fatto io e che fa chiunque programmi un computer. L’idea più generale di accoppiare a caso sostantivi, proprietà, azioni, luoghi sta all’origine delle creazione di Limericks casuali a partire da una struttura (sintattica, ma anche narrativa): qualcuno, in qualche posto, fa qualcosa, e allora succede qualche altra cosa. Come finisce? E’ lo schema di tanti giochi, e anche delle fiabe a ricalco, un’altra tecnica descritta nella Grammatica della Fantasia nel capitolo 21 (ma ripresa anche in molti di quelli seguenti). Entrambe queste possibili “applicazioni rodariane” del coding le ho descritte in “Lingua, coding e creatività”, che è un libro che cerca di scardinare l’idea che fare coding sia solo un’attività carina o che si debba fare solo per studiare le STEM; i codici sorgenti relativi, in Logo, Prolog e Kojo, sono nel sito di accompagnamento al libro e li possono scaricate tutti.
Bene, ora arriva la domanda cruciale: ma se usiamo un computer per tirar fuori tutte queste parole, non stiamo limitando la creatività nostra o dei bambini? Io non credo. Per due motivi che mi pare possano fondarsi proprio su quello che Rodari ha scritto, come ho cercato di spiegare in “Rodari digitale“, l’ultima fatica di quest’anno.
Primo: la parte creativa non è quella di andare a cercare le parole, ma quella di costruire la storia. La ricerca delle parole è la parte meccanica, che richiede l’accesso ad un archivio di parole e alcune regole. Altrimenti basterebbe avere nove parole per fare una poesia (“Si sta come d’autunno sugli alberi le foglie”).
Secondo motivo: non sto proponendo di usare un programma bello e pronto, e nemmeno di cominciare da zero. Propongo di partire da un codice sorgente che funziona, ma di metterci le mani da subito. Cambiando le parole di partenza, cambiando le regole (per esempio: solo sostantivi o anche verbi? quali preposizioni?). Variando la tecnica: tre parole invece di due; oppure aggiungendo i prefissi e i suffissi, i diminutivi e vezzeggiativi.
Terzo motivo (non era previsto, ma lo aggiungo lo stesso): un computer sarà pure ottuso, ma non c’è limite alle cose creative che possono fare un umano e un computer, insieme.
Attenzione: se volete scaricare una versione leggibile offline di questo testo, potete andare qui.
Postfazione (settembre 2020)
Dopo aver completato la prima bozza del nostro lavoro, l’abbiamo
fatta circolare tra un po’ di persone che sapevamo interessate e
critiche; anzi, le sapevamo critiche ma interessate all’uso delle TIC nel campo della conoscenza (e del lavoro, perché no?) in funzione di uno sviluppo caratterizzato da emancipazione, equità, sostenibilità.
Questo è infatti il nucleo del nostro ragionamento, che pensiamo sia
particolarmente importante mettere in circolazione ora, dal momento che
al periodo di emergenza non è seguita una vera e propria elaborazione
culturale ed etica, ma piuttosto la prosecuzione esasperata della di per
sé sterile contrapposizione assoluta tra “digitale-sì” e “digitale-no”.
Ci sono tornate indietro varie osservazioni, sulla base delle quali
abbiamo operato alcuni interventi e scritto queste righe, che forse
avremmo potuto intitolare “Confessioni”, o qualcosa di simile. Abbiamo,
per esempio, inserito al fondo del testo un breve glossario a
proposito delle istituzioni che hanno agito negli ultimi decenni nel
campo delle TIC a scuola: non potevamo infatti presumere che esse
fossero conosciute nemmeno dagli addetti ai lavori, in particolare dai
più giovani, perché non tutte sono sopravvissute al percorso. Abbiamo
preso atto che il nostro dialogo – questa è la forma che
abbiamo deciso di dare a riflessioni che un’esposizione tradizionale
avrebbe rischiato di rendere ancora meno sopportabili – avviene tra due
soggetti che presentano delle sfumature diverse, ma che sul filo rosso
del ragionamento sono (troppo?) d’accordo. Non ci contrapponiamo mai,
non polemizziamo, nemmeno neghiamo l’uno le tesi dell’altro.
Cerchiamo invece e volutamente di convergere su alcuni punti e
prospettive culturali, etici e operativi che ci sembrano importanti per
ribaltare la posizione – destinata a rimanere subalterna alla cultura e
all’agenda degli attuali decisori – di chi si rinchiude nella semplice
negazione e nell’inerte rifiuto del pensiero mainstream
sull’uso delle tecnologie a scuola, che considera l’innovazione
strumento di competizione e, di conseguenza, l’istruzione come
erogazione, pratica e verifica selettiva di skills adattive
allo scenario attualmente prevalente. Abbiamo ripensato a come abbiamo
usato uno strumento potente e tipico dello scrivere su supporto dinamico
e aperto come quello digitale, i link. In linea generale, li abbiamo utilizzati come “citazioni attive”,
anche di materiali nostri, non solo per testimoniare un percorso
pluridecennale che ci ha portato dove siamo ora (senza alcuna intenzione
di restare fermi), ma anche per evitare di riscrivere ciò che avevamo
già esposto altrove.
Marco Guastavigna e Stefano Penge
Introduzione
Estate 2020. Ci guardiamo in faccia – via monitor, of course – e ci rendiamo conto che ambedue siamo in stagione di ripensamenti, ma che entrambi non abbiamo intenzione di mollare: dobbiamo trovare una strada o (meglio) più sentieri per dare un senso a ciò che ha connotato la gran parte della nostra attività intellettuale, l’uso dei dispositivi digitali per migliorare la didattica. Meglio se virtuoso, rivolto cioè non all’innovazione fine a se stessa e alla competizione, ma all’aumento del benessere di tutt* e di ciascun*.
E decidiamo di farci reciprocamente un regalo, un percorso di scrittura, attraverso domande, per quanto possibili stranianti e provocatorie. Ciò che segue è l’intero lavoro.
Dialogo
MarcoG
Eccoci ancora qui a ragionare insieme, come abbiamo fatto a partire almeno da…
StefanoP
Dal 1993, la data di uscita di Io Bambino Tu Computer. Erano gli anni
in cui pensavo ingenuamente che un software educativo avrebbe cambiato
il mondo.
MarcoG
Vero, abbiamo cominciato quell’anno lì; poi ci siamo incrociati più
volte sull’uso delle mappe concettuali e oggi eccoci di nuovo a cercare
di capire il “nuovissimo” di turno. Ovvero la didattica dell’emergenza,
ovvero il distanziamento forzato dell’istruzione, che ha costretto molti
a ripensare il proprio approccio culturale e cognitivo e le proprie
categorie concettuali a proposito del “digitale”.
StefanoP
Infatti. Vanno ripensate e soprattutto criticate perché spesso sono
categorie manicheiste, e questo non è mai una buona cosa. Sono convinto
che sia necessario, soprattutto ora, provare a indicare delle vie
alternative, senza accettare la banale opposizione tra “il digitale è
buono” e “il digitale è cattivo”.
Anzi, sono convinto che si debba partire con il rifiuto della forma
stessa che assume questa opposizione. C’è un soggetto e c’è un
predicato, e in più si tratta di un giudizio di valore.
MarcoG
Lo vuoi insegnare proprio a me?
StefanoP
No, no, abbi pazienza. Cominciamo dal soggetto, il digitale: esiste
davvero una cosa così? Ovvero: le caratteristiche delle esperienze che
facciamo utilizzando i computer grandi e piccoli, locali e remoti, sono
talmente specifiche da permetterci di parlarne come se fossero una sola
cosa, e di opporle alle altre esperienze?
Il secondo aspetto che pone problemi in questa opposizione è il
predicato: il digitale è buono o cattivo? Ma che significa buono? Buono
per qualcuno, per tutti? Buono per uno scopo specifico, per tutti gli
scopi? Buono per oggi, per domani, per sempre?
Vista un po’ da vicino, mi pare, questa opposizione non regge: il
digitale è fatto di tante esperienze diverse, e non si riesce a
riassumerle tutte in un soggetto unico che si possa giudicare e
accettare o rigettare in toto. Di qui la necessità dell’analisi e della
riflessione, meglio se fatta a più cervelli e più mani. Ed è necessario
che a valle della riflessione si possano fare delle scelte, a livello
sia individuale sia di gruppo: questo digitale va bene per questo uso,
quest’altro invece no. Forse a te sembrerà una constatazione ovvia, ma
per me non lo è.
MarcoG
Infatti. Ai tempi in cui abbiamo iniziato a frequentarci mi sembravi
più tecno-ottimista. Per altro, non è la prima volta che ti capita di
cambiare idea, no?
StefanoP
No, e non me ne vergogno. Una volta pensavo che il digitale fosse
tutto buono. Pensavo che le caratteristiche del digitale fossero
talmente potenti da generare un cambiamento obbligatorio nella maniera
di creare e utilizzare la conoscenza. Per esempio, pensavo che il fatto
che il costo (cognitivo, ma anche tecnico e quindi economico) delle
operazioni di scrittura e lettura fosse sostanzialmente identico avrebbe
portato ad una parità di ruoli tra scrittore e lettore, e quindi ad un
cambiamento nella maniera di pensare l’autore, l’autorialità,
l’autorità. Il fatto che la rappresentazione digitale di un testo, o di
una musica o di un quadro, potesse essere facilmente, e indefinitamente,
modificata, copiata, trasformata mi portava a immaginare infiniti modi
di esercitare l’immaginazione creativa. Questi due fatti (il costo
paragonabile tra scrittura e lettura e l’infinita modificabilità di un
documento) dipendono da come è stato immaginato e realizzato il
digitale; ma la loro interpretazione non era affatto scontata. La forma
di determinismo tecnologico di cui in qualche modo soffrivo mi portava a
pensare che ci fosse un solo modo di sfruttare le potenzialità del
digitale, che nella mia testa era il migliore: quello di permettere a
tutti gli utilizzatori di diventare produttori, innescando un circolo
virtuoso per cui ogni prodotto sarebbe potuto diventare materiale di
partenza per altri prodotti e ogni ambiente sarebbe potuto entrare a far
parte di ambienti più ricchi e complessi.
In sintesi, pensavo che la novità tecnica portasse con sé
l’innovazione in maniera quasi automatica, e – secondo punto, più
importante – pensavo che l’innovazione fosse comunque positiva, cioè
indirizzata ad uno sviluppo delle persone, a partire dai bambini che
erano il “pubblico” a cui pensavo praticamente. Non tenevo conto, per
inesperienza, degli interessi dei singoli e dei gruppi professionali che
a volte possono prevalere su quelli di tutti. Non mi ero soffermato
sulle difficoltà, cognitive e affettive, delle competenze necessarie.
Pur conoscendo la storia dell’informatica, che è una storia anche di
imprese e prodotti, di marketing, mi ero concentrato solo sulle
potenzialità che qui in Italia non erano state sfruttate. Non tenevo
conto della possibilità che quei fatti tecnologici potessero essere
utilizzati o no, piegati in una direzione o in un’altra. Su questo
torneremo più avanti, immagino.
Dopo quasi trent’anni di tentativi di creare ambienti di
trasformazione digitale (cioè software educativi) penso di aver
raggiunto una consapevolezza banale: non è sufficiente che una cosa sia
tecnicamente possibile perché venga anche realizzata. Tutto quello che
pensavo di aver capito delle caratteristiche del digitale resta
probabilmente vero, aiuta a capire le potenzialità, ma non basta a
garantirne uno uso sensato e rivolto allo sviluppo di tutti.
Del resto, cambiare idea ed essere anzi consapevoli di poterlo fare sono risorse intellettuali. A te non capita mai?
MarcoG
Anche nella mia storia personale con il “digitale” (più se ne parla
più risulta sconosciuto!) ci sono momenti di profonda trasformazione
della prospettiva.
Inizialmente, ho colto soprattutto quelli che mi sembravano gli
aspetti positivi e più promettenti, in particolare la plasticità del
supporto – e qui ti devo da sempre parecchio – come spazio operativo e
cognitivo a vocazione propedeutica, in particolare per la scrittura di
testi, e le potenzialità della organizzazione ipertestuale di senso e
significato in rapporto alla complessità del sapere umano.
Ci torneremo, anche perché si tratta di aspetti tuttora
sottoutilizzati, sul piano non solo didattico, ma anche professionale e
intellettuale.
Qualcosa ha cominciato a cambiare nella mia testa a inizio millennio,
quando ho cominciato a intravvedere lo spettro del Pensiero
(tecno)Pedagogico Unico, di matrice istituzionale: incubatore principale
ANSAS-Indire con la rete degli ex IRRSAE, poi IRRE, perno organizzativo
e fulcro dei finanziamenti il Ministero, anche nelle sue articolazioni
regionali. Sulla base di un’adesione superficiale e spesso posticcia al
paradigma costruttivista, presentato in forma assoluta come strumento
per rimediare ai molti limiti della scuola, sono state condotte numerose
campagne massive di formazione, in genere legate alla distribuzione di
strumenti, per esempio le LIM, e/o all’infatuazione per il marchingegno
elettronico del momento: il caso più spassoso i learning object,
passati in breve tempo dagli altari della novità alla polvere del
fallimento. Sarebbe per contro interessante ricostruire bene le vicende
di due istituti – l’Osservatorio Tecnologico del Miur e l’ITD CNR – che
si sono invece caratterizzati per serietà della ricerca e senso critico.
In parallelo, l’editoria privata tradizionale – probabilmente perché
incapace di definire un modello di business nel campo dei
prodotti digitali, in particolare per quanto riguarda la versione
elettronica dei libri – si è rapidamente adeguata ed ha adottato
l’intera gamma degli slogan e delle mode (making, robotica, internet of
things,gaming e – peggio! – gamification, storytelling, tinkering e così
via) via via messi in campo dalla forma culturale che caratterizzava la
governance mainstream, nel frattempo passata dalle campagne di
diffusione massiva al modello dei bandi di concorso tra le istituzioni
scolastiche. Al centro di tutto questo, non un riferimento pedagogico
vero e proprio, ma il – deleterio e fallimentare, come vedremo –
concetto di innovazione, che era alla base di un processo culturale e
organizzativo che si configurava sempre più come un “dispositivo” di
potere capace di influenzare il sapere e le scelte in proposito.
In questo contesto, ho cominciato a maturare opinioni sempre più
differenti da quelle precedenti. Non una vera e propria abiura, ma la
consapevolezza che era (ed è) più che mai necessario svincolarsi e
svincolare colleghi e studenti dall’entusiasmo acritico e da quel
determinismo ottimistico di cui parli anche tu.
Più o meno per caso, poi, qualche anno fa mi è tornato in mano un volume che avevo comperato e mai letto, “Gli algoritmi del capitale: Accelerazionismo, macchine della conoscenza e autonomia del comune”, reperibile anche in rete.
Questo libro è stato la prima di una serie di letture che mi hanno
fatto scoprire prima e approfondire poi l’esistenza di numerose voci
fortemente alternative e – appunto – radicalmente critiche di ciò che,
con sfumature di significato importanti ma per ora trascurabili, viene
chiamato “capitalismo digitale” o “capitalismo cognitivo” e,
ultimamente, “capitalismo di sorveglianza”. L’elemento comune di tutte
queste posizioni (significativamente poco o per nulla considerate
dall’accademia nazionale) sono l’individuazione, l’analisi e la messa in
discussione etica e civile, e quindi politica, del massiccio, globale e
quotidiano processo di appropriazione della conoscenza da parte delle
piattaforme multinazionali di intermediazione (Google, Facebook, Uber.
Amazon e così via). Questi giganteschi dispositivi digitali non solo
hanno accumulato e accumulano immensi profitti attraverso il ciclo di produzione e sfruttamento dei Big Data,
ma – per quanto riguarda gli studenti e molti insegnanti e dirigenti
scolastici attraverso il concetto di innovazione – sono riusciti a
costruire una rappresentazione del mondo in cui le skills necessarie ad
adeguarsi al loro funzionamento sono diventate una dote operativa e
culturale imprescindibile, di cui l’istruzione pubblica deve farsi
carico o almeno palestra di esercizio.
StefanoP
Anche secondo me le strategie delle piattaforme capitalistiche, esplicite o meno, vengono da lontano. Oggi si propongono come ambienti di intermediazione digitale tra persone: dai motori di ricerca generici e specializzai ai social network system, ai sistemi di condivisione e distribuzione di media. Ma non sono strategie improvvisate, derivano dalla forma capitalista di produzione di valore, ma anche dalla storia dell’informatica e dal suo scopo generale di creare una versione del mondo più trattabile dell’originale. E a monte c’è la distinzione pubblico/privato, quella che in pratica è negata dalle aziende come Google che si presentano come superiori agli Stati nazionali. Lo fanno assumendo alcune caratteristiche del pubblico: il motto di Google (“Don’t be evil”) non suona come un motto aziendale. Forse, anzi, non dovremmo parlare di azienda, perché ci fa immaginare un soggetto semplice, con delle persone che prendono decisioni limitate che hanno per scopo il profitto immediato. Il discorso è troppo ampio per affrontarlo compiutamente qui, ma va almeno citato: nel contesto statunitense che il privato si sostituisca allo stato è visto come non solo logico ma anche come positivo. Nel nostro contesto storico e sociale, un po’ meno; ma è in quella direzione che stiamo andando?
MarcoG
Temo proprio di sì. Anche se in questo processo il distanziamento
della didattica è stato un avvenimento molto significativo, perché ha
segnato, almeno a mio giudizio, il crollo epistemologico del concetto
dominante quest’ultimo periodo della scuola, l’innovazione, e di tutti i
suoi derivati, in particolare la cosiddetta didattica innovativa. È
vero che vi è stato (soprattutto nei primi giorni del lockdown
della didattica erogata e interagita in prossimità) addirittura chi ha
avuto il coraggio di sostenere che il nostro sistema scolastico era di
fronte a una straordinaria opportunità – appunto – di innovazione, ma
questa posizione ha rivelato quasi immediatamente la propria assoluta
insensatezza. Lo rendevano concretamente inapplicabile troppi e subito
evidenti fattori: diffuso deficit di dispositivi adeguati alle esigenze
comunicative e debolezza o mancanza delle connessioni alla rete in
alcune zone del Paese e/o fasce sociali. Per non parlare dello
smarrimento delle famiglie e degli insegnanti a fronte all’assenza di
strategie e alla mancanza di pratiche per venire incontro ad allievi in
particolari condizioni personali, della dispersione delle relazioni e
della comunicazione e così via.
Non a caso – anche se quasi nessuno ha avuto il coraggio di parlare
in modo aperto di “crisi” organizzativa e metodologica – è prevalso
l’approccio fondato sull’emergenza. La scelta di adoperarsi per ridurre
il danno indubbiamente determinato dalla distanza tra pratiche di
insegnamento e allievi, oltre a essere più congruente con la realtà, era
accettabile anche da parte di chi fino a quel momento aveva sostenuto
posizioni di assoluto “tecno-snobismo” nei confronti della comunicazione
su base digitale, che così ha potuto avviare una qualche interazione
con i propri allievi. Purtroppo, non senza che alcuni cantori della
“centralità dei docenti” nei percorsi di apprendimento attivassero la
retorica della generosità professionale e personale.
Del resto, affrontando la questione su di un piano più generale – mi
verrebbe da dire teorico – di fronte all’imperante necessità di
ricostruire e di governare rapporti comunicativi efficaci, non poteva
certo funzionare la visione più diffusa dell’innovazione e dei suoi
derivati, ovvero la soluzione di continuità, la disruption a
vocazione competitiva, vista come rottura e come adattamento
necessitato, in una sorta di darwinismo tecnocratico. Questo approccio,
per altro, ha orientato il Piano Nazionale per la Scuola Digitale, che
ha costruito un sistema di istruzione pubblica a fortissime
differenziazioni interne, fatto di scuole-polo, con infrastrutture
potenti e centri di formazione, sempre più contrapposte a istituti
emarginati, stabilmente a rimorchio, ripetutamente perdenti nei bandi e
nelle altre iniziative concepite sul modello della gara, del “talent”,
impostazione che per altro ha caratterizzato e funestato l’autonomia
scolastica su vari altri piani, sia logistici sia culturali.
Non è di nuovo un caso che fosse diffusa la locuzione “fare
innovazione” o che si parlasse, per esempio, di ambienti “innovativi” – e
non innovati. Queste scelte lessicali non sono un vezzo, ma il modo di
assegnare deterministicamente al “nuovo” – in particolare se “digitale” –
il ruolo di fine anziché quello di mezzo. Nella scuola, insomma, era
dominante la visione tecnocratica, che – come abbiamo già affermato –
sostituisce all’idea di progresso e di miglioramento quella di rottura.
La mancanza di una vera declinazione dei bisogni di apprendimento e di
un’autentica analisi delle potenzialità delle tecnologie digitali dal
punto di vista operativo, cognitivo e culturale ha fatto il resto,
consentendo anzi, nelle fasi precedenti il distanziamento forzato, che
non vi fosse alcuna autentica valutazione delle implicazioni effettive
delle “innovazioni” introdotte.
Tornando agli aspetti concreti della (prima?) fase emergenziale, non è
un caso che molti insegnanti, soprattutto nelle realtà più complicate,
abbiano scelto di utilizzare il “digitale” che conoscevano già e che
quindi erano in grado di controllare e di dotare rapidamente di senso e
di scopo. Penso all’adattamento di WhatsApp come strumento di
interazione con i genitori e quindi all’indicazione di compiti da
eseguire. Penso alle videoconferenze (potenzialmente gestibili da più
relatori) utilizzate per riprodurre il modello della lezione frontale,
uno-a-molti, per altro utilizzatissimo anche in ambito universitario.
Penso agli interrogativi su come condurre le verifiche, intervenuti ad
onta delle paternalistiche indicazioni emesse dopo la fase della
spontaneità: i social hanno spesso rievocato modalità di interrogazione
davvero grottesche, volte ad impedire suggerimenti ed altri trucchi da
parte degli studenti, dal loro canto attivissimi in forme di resistenza
all’impegno (dalle webcam in stallo perenne, al pauperismo dei “giga”).
StefanoP
Questa delle “nuove tecnologie educative” è una storia vecchia. Un investimento, economico e umano, su qualcosa il cui valore sta solo nell’essere nuovo. Il vocabolario online Treccani dice che innovare significa mutare uno stato di cose, introducendo norme, metodi, sistemi nuovi. Se è questo il senso, allora la didattica innovativa non dovrebbe essere solo nuova, ma aprire un nuovo corso storico. Supponendo a) che il vecchio non funzioni bene, e b) che il nuovo sia migliore. Qui non entro nella discussione per il semplice motivo che questa novità è vecchia di decine e decine di anni, e personalmente sono stato coinvolto negli ultimi trenta nel tentativo di fare qualcosa di educativo con i software; quindi per me di nuovo, nel digitale, non c’è proprio nulla. Ma sono d’accordo con te che è nuovo il contesto emergenziale, sono nuove l’attenzione e le discussioni che improvvisamente si sono accese sulle tecnologie applicate alla didattica. Cosa è successo stavolta? Che i docenti si sono visti costretti ad usare computer, telefoni, webcam, microfoni per fare lezione. Hanno dovuto capire come si fa a tenere alta l’attenzione degli studenti, a individuare lo studente che bara, il genitore che si impiccia troppo, attraverso la ristretta banda informativa di un audio-video. Hanno dovuto cercare e chiedere aiuto ai colleghi per trovare strumenti e servizi gratuiti per la valutazione, contenuti già pronti per sostituire il loro lavoro quotidiano con la lavagna e la voce. E per la prima volta, questo bagno non ha riguardato solo una piccola parte del corpo docente, ma proprio tutti, dalla scuola dell’infanzia all’università. Chi aveva seguito dei corsi di formazione ha scoperto che erano invecchiati precocemente, chi non l’aveva fatto ha potuto lamentarsi di non essere stato messo in condizione di lavorare.
Sono ricostruzioni chiaramente parziali e un po’ ridicole, mi rendo conto. Le faccio solo per giustificare il fastidio con cui non solo quel modo di usare il “digitale”, ma qualsiasi modo viene percepito adesso dalla maggioranza dei docenti, e direi anche degli studenti e dei genitori. Basta didattica a distanza, basta computer, torniamo al porto tranquillo della presenza e della prossimità. Non perché sia meglio, ma solo perché lì le acque sono placide. Bene, ma non è possibile. E quindi? Usiamolo facendo finta che non ci sia? Ignoriamolo, come un parente poco presentabile? Questa trasparenza da lavoratore domestico è quella che in fondo vorrebbero i grandi venditori di servizi digitali: un maggiordomo che c’è ma non si vede, e piano piano diventa indispensabile anche per legarsi i lacci delle scarpe.
A voler essere pignoli, queste raffigurazioni che stiamo facendo –
che speriamo esagerate – testimoniavano a loro volta l’esigenza di
continuità perfino nell’ambito di relazioni fondate su sfiducia e
disistima.
Le pratiche didattiche innovative, dal canto loro, hanno spesso
mostrato tutta la propria intrinseca debolezza. Per esempio, si sono
rivelati del tutto inutili a fronteggiare l’emergenza i “saperi
aggiuntivi della modernità”, in particolare coding e il pensiero computazionale.
Ancor più cocente la sconfitta della multimedialità – intesa come
fruizione di audio e soprattutto di video – sostitutiva della
testualità, una forma di provvedimento dispensativo davvero subdola
perché, presentata come scelta positiva, esclude invece chi ne è vittima
da esperienze di apprendimento fondamentali. Il tutto corredato da un
altro dei terribili slogan della banalizzazione dell’imparare: rendere i
contenuti “accattivanti”.
Insomma: l’innovazione autoreferenziale poco aveva da dire e da dare e
non ha sedimentato alcunché. La didattica innovativa esce dal lockdown
dell’istruzione in prossimità con le ossa rotte.
Non ti pare?
StefanoP
Innovativo, accattivante, moderno… È vero che prima ancora che le tecnologie bisognerebbe ripensare il discorso sulle tecnologie (non solo digitali). Sono parole che usiamo senza molta attenzione, una volta che abbiamo deciso, o che ci hanno convinto, che hanno un valore a prescindere dal loro contenuto. Importanza del lessico ma anche della grammatica, della retorica: l’uso del singolare (il digitale, la didattica a distanza, la didattica digitale integrata) invece del plurale, le categorie dei media (a distanza, in presenza) usate al posto di quelle didattiche, le sigle che diventano troppo facilmente concetti (DAD, DDI,BYOD). Non è solo un problema della scuola: basta vedere come si intende oggi lo “smart working”. Di questo schiacciamento dei significati delle parole delle conoscenza sul loro contorno tecnico si potrebbe parlare per ore.
MarcoG
Del resto questo era – e rischia di continuare a essere – l’approccio
globale: le “nuove” tecnologie introdotte per ragioni puramente di
mercato.
StefanoP
In generale è vero, nel senso che i tentativi di trasformare l’introduzione di uno strumento nuovo in una occasione di miglioramento e di sviluppo della didattica sono rimasti isolati e non hanno smosso il mondo, come invece hanno fatto le campagne di promozione di sistemi operativi, di suite per ufficio e di browser, di laboratori linguistici e di LIM. Ma secondo me il punto non è più quello dei prodotti: ora il vero mercato è quello dei dati, a cui del resto abbiamo già accennato. Non è un caso che l’espressione che si usa per definire questo millennio è “i dati sono il nuovo petrolio”.
MarcoG
Non capisco cosa c’entrano adesso i dati…
StefanoP
Qui non abbiamo solo nuovi prodotti che si gettano su un mercato esistente, abbiamo un mercato che si crea quasi da zero grazie a questi servizi. Provo a spiegarmi meglio (ma è un po’ lunga, mettiti comodo). Ragionando in termini strettamente economici, il modo di produzione di reddito capitalistico (semplificando all’estremo) richiede una quantità di un bene (la “materia prima”) e dei mezzi di trasformazione massivi. Materie e mezzi hanno un costo tale da richiedere un grande investimento che non può essere fatto a livello artigianale o familiare. Da questo punto di partenza puramente dimensionale derivano gli altri aspetti che conosciamo bene: la riproducibilità tecnica che richiede la standardizzazione del prodotto, i magazzini necessari per lo stoccaggio delle merci in attesa della distribuzione capillare verso gli acquirenti finali, la comunicazione pubblicitaria che punta a stimolare il consumo per abbassare i costi di magazzino, eccetera.
Cosa succede se la materia prima sono i dati, le merci sono servizi digitali e i mezzi di trasformazione sono computer? Ovviamente perché si avvii il pesante volano capitalista ci vogliono tanti dati e ci vogliono computer molto potenti; perché le merci siano acquistate bisogna che tutti i consumatori abbiano gli strumenti per consumarle e siano spinti a farlo. Non è difficile capire Google in questi termini.
Ma da dove vengono le materie prime digitali? Possiamo immaginarle divisi in tre categorie. I dati si estraggono prima di tutto leggendo fenomeni analogici e assegnando un numero: sensori che catturano la luce, il suono, l’umidità. Questi dati sono abbastanza oggettivi, anche se portano con sé almeno le coordinate spazio-temporali del rilevamento. Poi ci sono i dati che hanno senso solo se riferiti a qualcuno, e derivano dal rapporto di quel qualcuno nel contesto: la posizione assoluta, calcolata tramite triangolazione satellitare o usando le celle dei dati, oppure relativa ad altri soggetti. Un terzo tipo di dati, ancora più centrati sul soggetto, è quello relativo al nostro uso dei servizi digitali stessi. Questo tipo di dati è quello che si sposa alla perfezione con il modello capitalistico perché genera un accumulo a valanga: più utenti usano un servizio, più la qualità di quel servizio migliora e più altri utenti lo useranno. Basta pensare a come funziona Waze, l’app israeliana ora di proprietà di Google: segnala il traffico e prevede i tempi di percorrenza usando i dati degli utenti che usano l’applicazione stessa. Peraltro, in questo modello di business, non è l’utente che paga il servizio, ma le aziende “partner” a cui Waze vende spazi pubblicitari ultra contestualizzati, esattamente come fa Google Maps. Lens/Socratic, l’app di cui si è parlato di recente in connessione all’apprendimento della matematica, è basata sullo stesso principio.
La trasformazione della qualità in quantità non è un’idea nuova: corona il sogno di Galileo, è la dimostrazione che davvero il mondo è scritto in caratteri matematici. Già la fisica quantitativa, quella nata appunto nel Seicento, usava la matematica per elaborare i dati e prevedere il futuro, basandosi sulle regolarità dell’esperienza; ma l’informatica offre la possibilità di conservare le rappresentazioni numeriche del mondo e poi usarle al posto del mondo stesso. Sono i modelli digitali, non più solo matematici; sono i software che simulano dinamicamente un pezzo di mondo. L’ultimo e importantissimo passo è quello dell’interfaccia sensoriale con i modelli, quella che ci permette di interagire con queste simulazioni come se fosse realtà. Il modello viene rappresentato in modo significativo per noi (la previsione di pioggia sotto forma di nuvolona nera) e ci vengono date delle maniglie per manipolare la simulazione (spostare il centro delle previsioni nello spazio o nel tempo). Ai tempi dei miei ragionamenti astratti parlavo di dati, struttura e interfaccia come i tre componenti di qualsiasi software. L’interfaccia-utente è quella che permette di interagire con i modelli, e dal tracciamento delle interazioni si generano nuovi dati. Così siamo tornati al punto di partenza: i servizi digitali basati su dati producono i dati stessi. È una specie di moto perpetuo che produce valore.
Come ci sembra naturale la fisica quantitativa che ha sostituito quella qualitativa, così ci sembra naturale che ogni fenomeno possa essere tradotto in dato digitale. Non ci facciamo più tante domande e diamo per scontato che il rispecchiamento digitale sia sempre possibile e che sia perfetto.
Dietro la digitalizzazione c’è però sempre un filtro. Non vengono presi in considerazione tutti gli aspetti del mondo, come è ovvio (altrimenti la mappa sarebbe il territorio). Alcuni aspetti sono più interessanti, perché possono produrre valore. Altri si possono tranquillamente trascurare. La parola “rispecchiamento” ci dovrebbe fare pensare subito che lo specchio offre un’immagine diversa dal reale, che dipende dalla curvatura della superficie, dalla luce, dall’umidità. Insomma, tutto tranne che fedele.
Quando si acquisisce un’immagine con uno scanner o quando si fa una foto con un telefono si prendono solo alcuni punti e si buttano gli altri. Quanti punti? Dipende dalla memoria disponibile, dall’uso futuro, dalla potenza di calcolo che si può usare per trattarli. E cosa prendiamo di ogni punto? La luminosità, il colore, la distanza? Prendiamo un solo dato per ogni punto, oppure varie versioni a distanza di qualche centesimo di secondo, da posizioni leggermente diverse, che poi mettiamo insieme per ottenere un’immagine “migliore”?
Il problema è che tendiamo a pensare che la rappresentazione digitale sia perfetta; esattamente come pensiamo che, se un’informazione (un libro, un articolo, un prodotto) non è citata da una risorsa web, non esiste, O peggio, anche se esiste, ma non è censita da Google o da altri motori di ricerca, non esiste lo stesso. Ci abituiamo all’idea che quello che non è rispecchiato digitalmente non esiste affatto.
C’è un secondo senso per cui il rispecchiamento non è assoluto: i numeri dell’informatica sono sempre discreti, a prescindere dal fatto che si usi la numerazione binaria o meno. Un orologio digitale permette di rappresentare solo 86.400 secondi in un giorno. Non c’è modo di rappresentare quel momento che stra tra le 22:02:59 e le 22:03:00 . Quando si usano tre interi compresi tra 0 e 255 per rappresentare un colore naturale (ad esempio rosso, verde e blu) si stanno definendo 16 777 216 colori, e quindi si sta rinunciando a rappresentare gli altri colori possibili; cioè si decide che alcuni colori naturali che sono diversi verranno rappresentati come lo stesso colore.
Anche in questo caso, l’abitudine ci spinge a trascurare questo filtro e a immaginare che il tempo sia il tempo digitale e lo spazio dei colori sia quello del sensore CCD del nostro telefono.
Ma l’immagine memorizzata è fin da subito manipolata da un software. Che fa cose ancora più complesse: non si limita a trascurare dei dati, ma ne crea di nuovi mettendo insieme quelli che riceve, a volte secondo le nostre indicazioni (come per i filtri creativi), a volte senza – come quando i dati creati al momento di scattare la foto (data, luogo, marca, modello) vengono inviati al servizio “cloud” che usiamo per la conservazione delle immagini stesse e magari rivenduti per creare statistiche aggiornate. Alla fine l’immagine che salviamo nella memoria del telefono è frutto di un “rispecchiamento” della realtà che è molti di più di una duplicazione in scala ridotta e portatile.
È questo stesso meccanismo che è alla base della profilazione dei comportamenti degli utenti. Un profilo è una composizione di più valori lungo diverse dimensioni. Lo scopo è quello di classificare, di mettere nella stessa classe comportamenti e persona che “in realtà” sappiamo essere diversi. La conversione della vita analogica in profilo digitale elimina necessariamente delle aree intermedie, e quindi standardizza le persone; non solo, ma tratta i dati, li modifica, crea altri dati sulla base di quelli.
Qui c’è la difficoltà centrale, a mio avviso: da un lato, questa creazione di una realtà parallela è naturale per l’informatica, è così che funziona anche nel caso più trasparente; dall’altro, gli effetti negativi sulle nostre vite non sono attribuibili alla cattiveria dell’algoritmo che crea un profilo a partire da una collezione di dati, ma ad una scelta precisa nel progettare il software sottostante e soprattutto nello scegliere quali pesi vanno utilizzati per attribuire più valore ad un dato anziché ad un altro per categorizzare un comportamento.
MarcoG
Secondo te questo significa che non possiamo fare niente?
StefanoP
No, certo, un margine di azione c’è sempre. Non è facile vedere quale…
Io sto maturando una convinzione “tattica”. Dobbiamo ragionare su
come depurare i dispositivi digitali dalla subalternità alle skills del
capitalismo di sorveglianza da una parte e della immotivata e anzi
controproducente discontinuità professionale dall’altra per verificare
se possano contribuire non solo a ridurre il danno ma anche a migliorare
l’apprendimento. Il ministero ha fatto scelte ancora una volta molto
chiare: partnership con le multinazionali digitali e rinuncia
alla realizzazione di una infrastruttura pubblica, negoziata, flessibile
e aperta a modifiche. Si preferisce insomma adeguarsi allo scenario
prevalente presentandolo come l’unico possibile, senza metterlo in
discussione, e quindi scaricare sui singoli utenti il carico
dell’autotutela e della adozione di comportamenti corretti, per esempio
nei confronti della diffusione intenzionale e manipolatoria di campagne
d’odio o di notizie false, ricorrendo alla già di per sé ambigua nozione
di “cittadinanza digitale”, per di più ridotta a confusa forma di
insegnamento.
Esistono però anche altri scenari e altre impostazioni, con intenzioni alternative a quelle dei dispositivi mainstream:
dal software libero alle piattaforme destinate alla cooperazione non
tracciata e ai motori di ricerca che non mettono in atto la profilazione
degli utenti.
Sei d’accordo sul fatto che ciò dovrebbe diventare patrimonio concettuale e operativo condiviso?
StefanoP
Condiviso da chi?
MarcoG
Da parte di tutti coloro che si battono per un approccio critico alla
“questione digitale” che non sia soltanto respingimento, ma
progettazione alternativa, difesa della libertà di insegnamento come
garanzia culturale, diritto collettivo e pratica dell’emancipazione
professionale e intellettuale.
StefanoP
Non sono ottimista come te, anche se sono vent’anni che lavoro solo con software libero… Comincio col riconoscere che hai ragione a mettere in relazione la licenza del software con tutto quello che abbiamo detto. Non lo fanno in tanti, non lo fa (sempre) il Ministero, ma nemmeno la UE nei suoi questionari sull’uso delle tecnologie digitali nell’era del COVID se ne ricorda. Quella del software libero è una questione etica ma anche sociale, nel senso che rilasciare il codice sorgente con una certa licenza modifica la maniera di lavorare, di apprendere, di vendere e comprare, e non solo di utilizzare un software. Il software libero non avvantaggia solo l’utente finale, che non spende soldi per acquistarlo, ma soprattutto l’ambiente dove l’utente agisce. Però bisogna essere franchi a costo di essere sgradevoli: il mito del software per imparare la matematica sviluppato da un genio sconosciuto nascosto nel suo scantinato e regalato al mondo per amore dell’umanità è, appunto, un mito. Certo, ci sono casi di docenti con un po’ di competenza di programmazione che per aiutare lo studente amico del figlio abbozzano un software per fare la tabelline in Visual Basic (l’ho fatto anch’io). Ci sono casi di informatici che hanno un lavoro tradizionale ma di notte lavorano ad un progetto personale. Ma non è su questi casi sporadici che si costruisce una soluzione sostenibile al problema di come produrre, distribuire, manutenere del software per la scuola.
MarcoG
Proprio tu che lavori allo sviluppo di software open source non sei a favore del software gratis per tutti?
StefanoP
No. O meglio: sono a favore di una dotazione di software educativo a tutte le scuole, come ci sono banchi, attaccapanni e cestini, ma anche lavagne, cartine e mappamondi, laboratori di fisica e chimica e palestre. Questo però non significa che chi produce attaccapanni e mappamondi debba consegnarli gratis alle scuole: qualcuno dovrà progettarli e costruirli, qualcuno dovrà consegnarli e ripararli quando si rompono, qualcuno di cui ci si possa fidare e che si possa chiamare in qualsiasi momento. Allo stesso modo, qualcuno deve studiare, progettare, sviluppare, testare, distribuire e aggiornare il software, esattamente come qualsiasi altro artefatto; non si può pensare che questo lavoro posso essere svolto gratuitamente da volontari sparsi a caso nel mondo.
MarcoG
E allora Wikipedia? La cito come esempio di iniziativa libera, frutto
del lavoro di volontari in opposizione alle enciclopedie prodotte da
dipendenti pagati.
StefanoP
Appunto, Wikipedia costa circa 2,5 milioni di dollari l’anno solo di hosting, e 40 milioni di dollari di personale. La fondazione che gestisce oggi Wikipedia ha 350 dipendenti e si sostiene con donazioni milionarie da parte di Google, di Virgin, di Amazon, di George Soros, di altre fondazioni private e delle donazioni dei singoli, arrivando ad un bilancio di 120 milioni di dollari. Wikipedia nasce come progetto profit (Nupedia) da parte di un azienda che aveva provato un po’ di tutto, compreso il porno (Bomis); ma siccome il modello di business non funzionava, viene trasformata in un progetto no-profit nel 2003 con la creazione di una fondazione, Wikimedia. Insomma, tenere in piedi un progetto delle dimensioni di Wikipedia non richiede solo persone di buona volontà ma anche una visione imprenditoriale, molta organizzazione e tanti soldi.
Il mondo dell’opensource è composto in buona parte da aziende (in generale PMI, ma alcune piuttosto grandi) che pur permettendo il download del codice sorgente forniscono a pagamento software opensource garantito, con un contratto annuale che assomiglia molto ad una licenza e comprende assistenza e supporto. Un esempio che molti conoscono è Moodle Pty Ltd, la società australiana che gestisce lo sviluppo della piattaforma di e-learning Moodle. Con circa 150 impiegati, Moodle si sostiene vendendo direttamente servizi (hosting, formazione) ma anche con i contratti annuali dei partner certificati. Nel 2017 ha ricevuto un investimento di 6 milioni di dollari da un fondo di proprietà della famiglia Leclerq (quella di Decathlon). Un altro esempio è la società Canonical ltd che mantiene Ubuntu, una distribuzione Linux molto conosciuta. Fondata da un miliardario sudafricano (uno di quelli che si sono pagati un viaggio turistico sulla Soyuz), Canonical ha oggi 600 dipendenti; dopo averne licenziati 200, nel 2017 ha avuto un margine operativo di 2 milioni di dollari.
Qui siamo molto lontani dallo sviluppatore che di giorno lavora alla posta e di notte sviluppa il suo motore di ricerca alternativo: sono aziende for profit, che hanno dei costi, dei ricavi, un bilancio. Non c’è niente di male, ma queste aziende non vanno confuse con associazioni di volontari idealisti. A volte si usa la distinzione tra “opensource” e “free software” proprio per distinguere tra un approccio funzionalista e uno etico-politico. Ci sono entrambi, vanno tenuti presenti entrambi.
È vero che una parte del software libero è anche gratuito; questo è un volano potente ed è significativo soprattutto per gli sviluppatori singoli e le micro-imprese che possono permettersi di sviluppare software senza dover pagare migliaia di euro di sistemi operativi e strumenti di sviluppo, o per le piccole società che offrono hosting a prezzi bassi utilizzando server Linux con Apache, MariaDB, Php, Python etc. Ma non avrebbe senso pretendere che questi servizi venissero offerti gratis alle scuole, perché sarebbe solo un modo per privilegiare le grandissime aziende che possono permettersi di investire in pubblicità e offrire piattaforme e banda in cambio di un ingresso dal portone principale della Scuola.
E allora dove sta il free? Come si dice: il software libero è free nel senso di free speech, non nel senso di free beer. Il software libero ha il codice sorgente aperto, che significa che chi lo ottiene può ispezionarlo, leggerlo, imparare da esso; ma anche modificarlo e ridistribuire la versione modificata. Questo vuol dire che può essere ragionevolmente sicuro che non ci siano parti nascoste che rubano dati personali e li spediscono allo sviluppatore all’insaputa dell’utente; vuol dire che se lo sviluppatore muore, il progetto può continuare. Vuol dire che progetti più grandi si possono costruire utilizzando librerie e parti di progetti più piccoli. Questi aspetti sono molto più importanti del fatto contingente che un software sia gratuito: potrebbe essere gratuito ma non libero, cioè senza codice sorgente aperto, come il cosiddetto freeware o il software di pubblico dominio.
Insomma, software libero è un modo di sviluppo del software che si adatta particolarmente bene al software educativo; ma bisogna trovare un modo di sostenerne economicamente lo sviluppo nel tempo, altrimenti si finisce per fare un guaio peggiore: far scomparire dalla faccia della terra quel tessuto di sviluppatori, di piccole imprese, di cooperative che potrebbero costituire un’alternativa alle multinazionali digitali. E la scuola potrebbe fare la sua parte.
Ti ho messo in crisi?
MarcoG
No, sei stato ancora una volta illuminante e mi hai donato birra
intellettuale, anche se nel mio caso analcolica, e mi spingi a ragionare
meglio e più da vicino sul tema del software libero, che per un lungo
periodo ho sottovalutato, considerandolo la versione naïf di quello commerciale.
È vero: il software in generale – libero o commerciale – esercita la
“dittatura del calcolo” cui tu hai accennato e di cui parla in modo
particolarmente illuminante Zellini,
e ogni realtà rispecchiata è il frutto di computazione in funzione di
variabili e di criteri che sono per forza delle cose frutto di scelte
vincolanti e limitative. Ma il free software dà un messaggio che vale la
pena di cogliere, valorizzare e diffondere, in contrapposizione
esplicita con l’assetto mainstream: la conoscenza è cooperazione sociale
in continuo evolversi dinamico e nessuno se ne può appropriare in forma
esclusiva o anche solo dominante. Di conseguenza, la costruzione di
dispositivi digitali che influenzano la conoscenza e il lavoro e le
modalità del loro impiego, individuale e collettivo, deve fare i conti
con i diritti e non determinare condizionamenti.
Sono convinto, insomma, che dobbiamo continuare a ragionare in modo
critico, in particolare sul capitalismo di sorveglianza, ma che sia
anche urgente e possibile dare indicazioni alternative, per una cultura
positiva e pratiche fattive nel campo delle tecnologie digitali
dell’informazione e della comunicazione per la didattica.
Dobbiamo, cioè, diventare e considerarci capaci di applicare e
diffondere una prospettiva differente e di concepire e praticare
soluzioni diverse dal rifiuto aprioristico, versione del “senza se e senza ma” destinata a subalternità operativa e ad asfissia politica e – quindi – ad auto-emarginazione.
È quanto mai evidente, infatti, che – nonostante il fallimento della
prospettiva dell’innovazione – le piattaforme capitalistiche di
intermediazione digitale proprietaria hanno sfruttato il lockdown
e le richieste e le disponibilità di ministero, di singoli istituti e
di molti insegnanti per estendere e rafforzare la propria egemonia,
fondata sulla conoscenza sorvegliata e sull’estrazione di dati spacciate
per cooperazione e per altro già molto diffusa nell’istruzione in
generale e nelle varie scuole.
E quindi, se vogliamo riuscire a resistere in misura efficace
all’irruzione della logica e della logistica tecno-liberiste
nell’istruzione della Repubblica, secondo il “dispositivo digitale
mainstream”, dobbiamo prioritariamente svincolarci dall’uso delle
categorie e del lessico totalizzanti e polarizzanti – per esempio, “la”
didattica a distanza, “il” digitale, “le” tecnologie – per costruire
quadri concettuali autonomi, divergenti, a vocazione esplicitamente
emancipante.
In particolare, non possiamo continuare a (lasciar) confondere la
sfera e il discorso pubblico con l’insieme dei rapporti di comunicazione
mediati da aziende private multinazionali, come troppi fanno, per
esempio rappresentandosi Facebook come un’agorà.
Penso che sia utile approfondire il tema della conoscenza così come i
differenti dispositivi digitali – sì, perché possono non essere tutti
uguali! – se e ce la rappresentano.
La “platform society” del capitalismo digitale, come abbiamo già
accennato, pratica continui processi di appropriazione unilaterale della
rete internet e dei dati e dei comportamenti degli utenti. Non
stupiamoci: questa logica produce strumenti di accumulazione, di
profitto e considera la conoscenza come una risorsa per la creazione di
valore economico ed aspira ad accumularla e sfruttarla in modo
tendenzialmente monopolistico.
Dell’atteggiamento culturale sotteso al movimento per il free
software, invece, mi convince e mi dà speranza il rapporto ideale con la
conoscenza che ho descritto poco fa. Preciso per altro che sono
assolutamente d’accordo con te sul fatto che questo debba sfociare nel
pieno riconoscimento del lavoro prestato, strumento fondamentale per
l’incremento della conoscenza di tutt* e di ciascun*. Non vogliamo
riders dell’istruzione e nemmeno possiamo contare sul volontariato.
Alle tue osservazioni critiche, io aggiungerei anche che nel mondo
dell’opensource ci si imbatte ancora troppo spesso in una fastidiosa
tendenza elitaria, quella di chi pensa che in fondo la vera capacità
d’uso passa per l’interfaccia a comandi, l’unica a permettere e
dimostrare la piena comprensione del funzionamento del dispositivo.
Oppure di coloro che invitano sdegnosamente a consultare help e manuale
di istruzioni anziché fornire la risposta a qualche domanda di
chiarimento. Non per caso, del resto, scrissi anni fa un articoletto
intitolato “Codice aperto. Mentalità chiusa?”, purtroppo ora non più
reperibile, in cui in sostanza affermavo la necessità di uscire da un
approccio che allora mi appariva troppo auto-selettivo e che oggi mi
sembra più che mai ingiustificatamente individualistico.
Credo però che proprio l’emergenza sanitaria e formativa possa
permetterci non solo di criticare posizioni di questo tipo, ma di
provare a farle evolvere nel loro opposto, assumendo e proponendo in
ogni sede di discussione in modo intenzionale – sono affezionatissimo a
questa parola – una prospettiva sociale.
Cerco di spiegarmi meglio.
Detto in un altro modo, voglio valorizzare l’approccio etico-politico
e non economicista, in particolare l’idea che ciascun singolo e
soprattutto ogni comunità hanno diritto al controllo di ciò che
utilizzano e dei propri dati.
In riferimento alla costruzione di un dispositivo digitale
alternativo a quello del capitalismo di piattaforma, “apertura” e
“libertà” mi sembrano insomma significare soprattutto trasparenza e
consapevolezza da parte di tutti coloro che sono coinvolti.
Bene, questo approccio e le sue implicazioni devono assumere
esplicita valenza collettiva. Smettere di essere patrimonio più o meno
esibito di alcun* o accesso iniziatico a gruppi particolari, per
dispiegare invece tutta la propria potenza politica nella sfera
pubblica, intesa come dibattito, sintesi, scelta, ma anche come
dimensione operativa su mandato collettivo, appunto consapevole e
aperto.
La prospettiva open/free, insomma, se intesa come sto cercando di
ri/definirla, può costituire la base su cui costruire un uso sociale e
autenticamente democratico delle tecnologie digitali con lo scopo di
accrescere conoscenza e benessere in modo equo.
Prendiamo ad esempio il caso del tracciamento a scopo di prevenzione e
intervento sanitario, testimoniato dalle discussioni sull’installazione
di “Immuni”:
è una buona idea, ma – oltre a garantire a ciascun* la riservatezza dei
propri dati sensibili – l’impiego dell’intelligenza artificiale deve
essere il frutto di un mandato consapevolmente finalizzato all’utilità
pubblica e indirizzato con procedure che garantiscano chiarezza e
trasparenza sulla raccolta e sull’uso dei dati, secondo criteri
bio-medici e statistici, ma anche civici, etici, ecologici, economici e
sociali, espliciti e condivisi, non sulla base dell’affidamento a un
golem postumano.
Certo, la realizzazione concreta e tutti gli aspetti operativi
connessi sono compito di coloro che possiedono le capacità tecniche, ma
va denunciata e scardinata l’impostazione tecnocratica – ahimè! in
vigore – che si arroga non solo il diritto di individuare i problemi su
cui investire risorse, ma anche la potestà esclusiva di articolarne gli
aspetti, di definire parametri e criteri di soluzione, di valutare
l’efficacia dei meccanismi prodotti.
Nella condizione tecnocratica attuale, alla cittadinanza
digitalizzata – a volte addirittura a sua insaputa – spesso non è
richiesto nemmeno il consenso informato, quanto piuttosto un adeguamento
fiduciario, firmato in bianco.
Questo rovesciamento dell’impostazione – che per brevità possiamo
chiamare algoretica – può essere estesa a tutti i campi d’esercizio
della potenza di calcolo e interpretativa dell’IA.
Certo, sarebbero necessarie modalità di istruzione molto diversa da
quella attuale (prerequisito una visione emancipata e non adattiva del
pensiero computazionale), investimenti in infrastrutture pubbliche,
sinergie aperte tra diversi saperi specialistici – dalla medicina alla
filosofia, dal diritto alla statistica e così via –, volontà di
confronto.
Non ci possiamo nascondere, inoltre, che un’impostazione che vuole
restituire agli esseri umani la capacità decisionale collettiva deve
fare i conti con l’algocrazia attualmente dispiegata dal capitalismo di
sorveglianza, sulle cui procedure operative vige il segreto industriale,
ormai molto vicino a quello militare, dal momento che con ogni evidenza
è alla base dell’esercizio di un potere condizionante la quotidianità
della vita umana. L’iniziativa culturale e politica dovrebbe mandare in
corto circuito l’acquiescenza acritica, ormai così diffusa da aver di
fatto accettato che alla sovranità fondata su territori, popoli e
istituzioni si aggiunga – e spesso si sovrapponga – quella
dell’intermediazione messa in atto da data server digitali con consumi
di energia non per caso paragonabili a quelli di Stati, come tu stesso
sottolinei.
Affermare e praticare la necessità che le scelte nel campo dell’ICT
applicata alla vita umana debbano essere aperte, cioè trasparenti e
collettive, costruendo le sinergie necessarie, è, insomma, a mio
giudizio il solo modo per recuperare un senso di auto-efficacia sociale
capace di invogliare alla partecipazione attiva e alla fatica
intellettuale che un’autentica cittadinanza critica richiede.
Ora facciamo però un salto in un futuro forse utopico. Gli assi
portanti dell’intervento pubblico in materia di istruzione digitalizzata
sono l’approccio etico e il riconoscimento della conoscenza e del
lavoro come risorse sociali di emancipazione individuale e collettiva e
viviamo un quadro politico-istituzionale davvero costituzionale, privo
di “secondi fini”, trasparente e libero da operazioni di tracciamento a
fini di profitto. Come potremmo valorizzare le caratteristiche dei
dispositivi digitali nella direzione di un autentico e pieno diritto all’apprendimento individuale e collettivo?
StefanoP
Mi piace la tua domanda, formulata in questo modo. Per me la risposta, o una delle risposte, è: per aiutare gli apprendenti a costruire delle teorie, cioè delle rappresentazioni complesse e dinamiche del mondo. Perché questa operazione (costruire un modello sperimentale del mondo, una simulazione dinamica di un processo), malgrado quello che ci ostiniamo a pensare, non si riesce a fare del tutto con la parola, con il disegno, con i libri, con le lavagne: tutti questi sono strumenti di rappresentazione statici, in cui statico non è opposto a multimediale o animato, ma a dinamico. Con i computer si possono rappresentare simboli e definire delle regole con le quali questi simboli si combinano_ nel tempo_ e creano nuove strutture.
Un esempio di questa operazione: scrivere un testo. Qualcuno potrebbe dire: ma perché, non si poteva fare con la penna e il foglio di carta?
MarcoG
Io no. Anche perché sono notoriamente un amanuense disgrafico con centinaia di pubblicazioni.
StefanoP
È vero. Comunque: sì, si poteva usare la carta se l’obiettivo fosse stato quello di produrre un testo, come in ufficio, come a casa. Invece a scuola – voglio dire in un contesto educativo – l’obiettivo finale non è produrre, e nemmeno imparare a produrre, ma capire. In un ambiente digitale educativo si impara a scrivere un testo, ma soprattutto si capisce cos’è un testo, di quali parti è composto, come nasce, come evolve quel testo nelle mani dell’autore o di altri autori successivi o contemporanei. Un ambiente digitale educativo permette di capire che un testo non è solo una sequenza di righe scritte su un foglio di carta, perché permette di astrarlo dal supporto, duplicarlo, distribuirlo indipendentemente da quello. Un testo è, in ogni momento, una fotografia di un universo (ad esempio, narrativo), una rappresentazione che utilizza diversi livelli (lessico, grammatica, sintassi, stilistica, retorica).
Naturale. Anche se non so quanti la vedano in questo modo. Ma dov’è che interviene il digitale educativo?
StefanoP
Ci arrivo. Intanto devo dirti che trovo strano che normalmente non si distingua tra due usi dell’informatica, o meglio due livelli: l’elaborazione dei dati e quella dei simboli. Mi pare una distinzione fondamentale, e quindi provo a farla io, perché ci serve per capire cosa dovrebbe fare un ambiente digitale educativo.
L’informatica è nata per accelerare e automatizzare le trasformazioni dei numeri, cioè i calcoli. Quali calcoli? Quelli che servivano alla balistica per calcolare la traiettoria di un missile (l’ENIAC, nato per questo scopo nel 1946 ma usato poi per la meteorologia); o quelli che servivano alla statistica per il censimento della popolazione (i primi UNIVAC in uso al Census Bureau USA nel 1951). Questo scopo è ben presente anche oggi: le centraline delle automobili, ad esempio, sono piccoli computer che prendono i dati dai sensori del motore (fase, pressione, temperatura), li elaborano e restituiscono dei valori che sono usati per regolare la miscela aria-benzina, l’accensione delle candele, insomma il funzionamento ottimale del motore. L’IoT, l’internet delle cose, è un modo di dire che la distanza fisica tra i sensori e gli elaboratori dei dati non è rilevante, e che monitorare un processo critico – raccogliere dati continuamente – può servire a evitare danni peggiori. I computer possono continuamente fare calcoli fino a mostrare cosa succederebbe se…, in modo da consentirci di prendere decisioni più in fretta senza aspettare di vedere effetti macroscopici.
In tutti questi casi, i dati che vengono trattati sono numeri che rappresentano grandezze fisiche, in ogni caso aspetti primari della realtà. Vale naturalmente anche per i suoni e i colori.
Ma i numeri si possono usare anche per rappresentare simboli, che sono già a loro volta rappresentazioni della realtà. Per esempio, le lettere dell’alfabeto di una lingua naturale sono simboli che si possono rappresentare con numeri secondo una tabella standard (ASCII, 1968). Quindi con i computer si possono raccogliere e contare lettere, parole e frasi. Non è che sia una scoperta recente: uno dei primissimi computer, il Colossus, serviva a decifrare i messaggi tedeschi, giapponesi e italiani per conto della Royal Navy, quindi lavorava proprio su serie di lettere. Ma da qui nasce anche l’informatica umanistica negli anni ‘50, quando padre Roberto Busa SJ si mette in testa di costruire un lessico completo dell’opera di Tommaso d’Aquino usando un calcolatore a schede perforate che gli presta l’IBM. Oltre a contare, però, i simboli si possono anche trasformare e si possono produrre nuove raccolte di simboli, cioè dei testi. Come in un word processor o un editor HTML.
Questo dell’elaborazione simbolica è un livello diverso, anche se dal punto di vista dei computer non è che cambi poi tanto. Dal nostro punto di vista, invece, lo è davvero, perché noi siamo abituati da qualche centinaio di migliaia di anni a presupporre di essere l’unico agente in grado di trattare simboli, e quindi siamo piuttosto ingenui quando si tratta di valutare le produzioni simboliche di altri agenti. Di qui l’Intelligenza Artificiale, i virus, i BOT dei social network, i software che producono plot narrativi.
Da qui deriva anche le possibilità di applicazione del digitale nell’educazione, perché nell’educazione si lavora con le parole, con i concetti, con le relazioni tra concetti, e si impara come costruirne di nuove. E quindi un software che sia capace di trattare questo tipo di oggetti e di fornire un piano dove collocarli, spostarli, cancellarli e richiamarli diventa fondamentale.
Allora: un ambiente educativo per la scrittura digitale permette di lavorare a tutti questi livelli (fonetico, lessicale, sintattico, stilistico) in maniera indipendente, perché questi livelli sono stati codificati come simboli, e con i simboli i computer si rapportano piuttosto bene, come abbiamo visto. Insomma, ci sono tonnellate di articoli e libri che raccontano come si possa capire cosa significa “testo” usando un software senza che io ti tedi oltre.
MarcoG
Infatti. Si può usare anche Word… pardon, Libre Office Writer…
StefanoP
Qui dobbiamo stare attenti: più lo strumento è standard, da adulti, mirato al risultato, più occorre che il docente faccia un lavoro di adattamento alla situazione, di completamento, di astrazione dalle modalità standard. Ma è possibile, nella misura in cui lo strumento può essere modificato per adattarlo al contesto dell’apprendente.
La scrittura è un esempio forse un po’ tirato per i capelli (ma l’ho fatto perché so che te ne sei occupato a lungo), ma ce ne sono tanti altri più diretti: ad esempio, una mappa concettuale per rappresentare un contesto storico/geografico in cui si possano filtrare i link o espandere i nodi per una navigazione differenziata in base alla domanda di fondo. Oppure, per spostarci in ambito scientifico “duro”, una simulazione del comportamento di un ambiente basata sull’equazione di una legge fisica in cui si possano variare i valori dei parametri. Una simulazione interattiva in cui si possa accelerare la rivoluzione terrestre o il ciclo della pioggia per vedere cosa succede dopo dieci, mille, un milione di ripetizioni.
Per costruire da zero questo tipo di modello dinamico (non solo usarlo) non si possono usare i simboli del linguaggio naturale, ma ci vogliono quelli di un linguaggio artificiale, di un linguaggio di programmazione; e qui passiamo al coding, o almeno ad una forma possibile di coding. Anzi, potremmo immaginare un ventaglio continuo di possibili ambienti educativi che va da quelli fortemente strutturati (in cui non si può fare altro che reagire a stimoli e rispondere a quiz), e poi passando per vari gradi di apertura (i software didattici da esplorare liberamente) arriva fino all’estremo del coding, in cui la struttura va creata da zero prima di poterla esplorare.
In tutti questi casi, infatti, quello che conta è che l’ambiente digitale sia pensato come educativo. Il che non significa che deve essere “pieno di contenuti semplificati”, ma che deve essere progettato appositamente per permettere all’apprendente di prendere confidenza man mano che lo utilizza, modificandone l’interfaccia e la logica, adattandolo al suo personale e attuale livello di competenza.
Questa plasticità dell’ambiente digitale (che è possibile appunto perché è digitale, e non lo sarebbe se fosse un ambiente fisico rigido) deve essere accompagnata da una forma di consapevolezza di quello che accade al suo interno. Niente intelligenza artificiale, solo monitoraggio delle operazioni; una raccolta continua di dati che non serve a profilare l’apprendente per vendergli qualcosa, ma a valutare l’apprendimento per personalizzare l’ambiente stesso in maniera più pronta e utile a chi apprende al suo interno. Un monitoraggio esplicito, i cui dati siano disponibili per l’apprendente e per il docente, o per il gruppo formato da apprendenti e docenti.
Tra parentesi: questa è la giustificazione dei cosiddetti strumenti di Learning Analytics. I dati – quegli stessi dati che oggi fanno la fortuna di Google, di Amazon e di tutti gli altri grandi – possono e devono essere di proprietà di chi li ha prodotti, ed essere resi pubblici in forma anonima, come open data. Qui bisogna essere ragionevoli e smettere di confondere strumento e utilizzo. Come per gli “algoritmi cattivi” di cui hai già parlato tu: non si tratta di demonizzare i dati, ma di ripensarne il processo di produzione e distribuzione in un’ottica di sviluppo delle persone. I nostri dati ci appartengono, ma dobbiamo essere messi in condizione di usarli.
Tu ti occupi di formazione degli insegnanti, di queste cose ha scritto tanto. Mi dai un po’ di link?
MarcoG
Certo. Per primi, cito gli ausili
in campo sensoriale e motorio, che sono numerosissimi e vengono via via
perfezionati, con lo scopo di facilitare – e in alcuni casi di
permettere – l’accesso e la pratica di percorsi di istruzione e di
contesti operativi da parte di tutt* con il massimo di autonomia e di
efficacia possibili, proprio sfruttando quella possibilità di elaborare
simboli in modo dinamico che hai appena descritto.
In questa medesima prospettiva si colloca la multimodalità, ovvero la
possibilità di realizzare facilmente contenuti fruibili in modi diversi
e il più possibile equivalenti sul piano espressivo e concettuale:
l’esempio tipico è il testo digitale, che – digitato una volta – può poi
essere letto a schermo e su carta, stampato in braille e ascoltato via
sintesi vocale.
Se ragioniamo sul testo,
dobbiamo riflettere sulla plasticità operativa e cognitiva che gli
conferiscono trasferimento o elaborazione diretta su “supporto
flessibile” (chi non ha apprezzato il taglia-e-incolla o la possibilità
di cancellare senza conservare residui?). Si configura uno spazio
propedeutico permanente, in cui la scrittura di testi articolati può
essere concepita anche operativamente come processo di apprendimento
mediante la pratica: si possono infatti perseguire e raggiungere
risultati accettabili mediante intenzionali perfezionamenti successivi,
messi in atto in un consapevole rapporto dialettico tra alliev* e
insegnanti. L’idea della “bozza progressiva e collaborativa” è per altro
estensibile a qualsiasi processo di elaborazione da parte degli allievi
di un prodotto culturale e intellettuale mediante dispositivi digitali,
sempre supervisionabile da parte degli insegnanti, non più costretti a
limitarsi a correzione e valutazione finali, ma in grado di attuare, se
necessario, interventi di mediazione e di supporto costanti, lungo tutta
la produzione. Questa prospettiva professionale può incrementare e
valorizzare lo spazio formativo e l’auto-efficacia della funzione
docente, in termini di capacità inclusiva e di individualizzazione
compensativa dei percorsi e delle attività didattiche.
Disporre di testo su supporto flessibile consente inoltre agli
insegnanti di mettere in atto in prima persona gli interventi di
adattamento previsti dai relativi protocolli per i libri di testo.
Voglio anzi sottolineare che la “semplificazione” non è banalizzazione,
dispensa, riduzione, ma la messa in atto di strategie – in questo caso
di tipo linguistico – per migliorare la comprensibilità dei quadri
concettuali e dei contenuti culturali proposti, eliminando le
complicazioni di cui si può fare a meno. Che spesso sono molte più di
quanto si possa immaginare, soprattutto quando si impara a non dare
nulla per scontato.
In questa stessa logica si colloca la presentazione di contenuti affiancando più canali, con una prospettiva non dispensativa (l’immagine al posto del testo), ma integrativa e compensativa (l’immagine oltre
al testo; lo schema come strumento di decostruzione e ricostruzione di
altri materiali di apprendimento). Questo significa anche rifiutare,
come accennavo prima, l’uso di filmati invece di libri, che si fonda
sull’illusione che sia possibile surrogare l’approccio alla conoscenza
permesso dalla più astratta e quindi più potente per estensione e
intensità delle tecnologie della comunicazione – la scrittura e la
lettura di testi complessi – con immagini in movimento, sia pure
corredate di contenuti sonori.
Fino a questo momento ti ho rapidamente declinato alcuni approcci che
vanno nella direzione soprattutto dell’estensione del campo di
efficacia dell’istruzione collettiva, della garanzia democratica in
ordine agli apprendimenti di base, volti a incrementare l’autonomia di
tutt* e di ciascun*, in un sistema di relazioni sociali positive, di
valorizzazione reciproca, in cui il dispositivo digitale è elemento di
coesione e di equità.
Sono però convinto, anche per averlo praticato, del fatto che i
dispositivi digitali abbiano rilevanti potenzialità di salvaguardia e di
cura democratica anche per quanto riguarda un approccio emancipante
alla complessità dei saperi, sempre in virtù della elaborazione dinamica
di linguaggi simbolici.
Innanzitutto, la diffusione di infrastrutture di rete pubbliche e
aperte, con funzionalità negoziate, flessibili e adattabili (anziché
preimpostate e modificate in modo centralizzato e autocratico) può
estendere gli spazi per la condivisione critica e la classificazione
professionale di materiali, attività, proposte, in una logica di
autentica cooperazione, aliena da pratiche competitive e gerarchizzanti.
Le varie rappresentazioni grafiche–
ai cui differenti modelli logico-visivi sono per altro ispirati in modo
rigoroso parecchi software free – possono supportare, esemplificare e
rendere visivi stili di ragionamento anche molto diversi tra di loro,
con diverse modalità cognitive e diverse finalità e implicazioni
formative, ampliando lo spettro e l’estensione del patrimonio di
riflessione e di schematizzazione a disposizione di tutt*, a cominciare
dagli insegnanti.
Il ricorso intenzionale a una consapevole tessitura ipertestuale è
una pratica concettuale con grande potenza sintattica e semantica, di
cui ogni cittadin* deve impadronirsi sul piano cognitivo e culturale:
può costruire percorsi all’interno della rete nel suo insieme, può
chiarire, esemplificare, contrapporre, definire, integrare e così via. A
questo va aggiunta la potenzialità dei QRCode. Facilissimi da generare,
essi consentono di puntare ad un indirizzo web – per limitarci a ciò
che consentono le applicazioni gratuite – anche a partire da oggetti
materiali. Non solo: per attivare il collegamento è necessario
inquadrare il codice attraverso il proprio smartphone e poi confermare
l’operazione. In questo modo, si utilizzano, due diversi supporti, on
funzioni diverse: l’oggetto di partenza e – appunto – lo smartphone,
marcabdo una netta distinzione tra flusso culturale principale e
informazioni aggiuntive. Sul versante cognitivo, questa pratica può
facilitare la strutturazione di interconnesioni logiche congruenti alla
situazione formativa. In modo analogo funzionano i TAG Near Field
Communication (NFC), a loro volta ponte tra atomi e bit.
StefanoP
L’idea di ponte tra mondo fisico e mondo digitale – veicolata da un puntatore univoco e pubblico – è interessante. A differenza dei vari visori di realtà aumentata questo collegamento è pubblico e può essere controllato prima di essere seguito: alla fine si tratta semplicemente di una URL. Può essere un modo facile di aggiungere media diversi: la URL potrebbe essere quella di un audio, di un video…
MarcoG
Infatti. Alla fine del discorso – per ora – c’è proprio la dimensione
multimediale. Come ho già detto forse fin troppo, ne va immediatamente
abbandonata ogni visione sostitutiva e per ciò stesso dispensativa (il
filmato anziché il testo; il film anziché il capitolo di storia o la
lezione di scienze) e va invece praticata l’integrazione tra media
diversi. In particolare, oltre alla possibilità di tessitura ipermediale
a partire da uno o più testi guida, sottolineiamo quella – fornita da
un numero crescente di ambienti – di costruire manufatti multimediali
imperniati su integrazioni, commenti, ampliamenti e così via di uno o più filmati disponibili in rete.
Sono fortemente convinto, anzi, che la possibilità di interrogarsi a
proposito di come esplicitare e rappresentare in più modi e
dinamicamente il verso, il senso e il significato delle relazioni tra
gli elementi di uno o più aggregati informativi e comunicativi
costituiti da elementi di matrice mediale diversa sia la più potente
risorsa formativa della dimensione digitale della cultura, la più vicina
alla natura reticolare, aperta e libera della cognizione umana.
Per ora, mi fermerei qui. Cosa ne dici?
StefanoP
Che abbiamo detto tanto, ma non tutto. Quindi questa conversazione per ora la chiudiamo qui, ma solo per condividerla e renderla pubblica, ovviamente in forma il più possibile libera e aperta. Sperando che qualcun altro voglia iniziare a discuterne con noi…
Anzi no, prima di chiudere raccogliamo qualche indicazione di lettura per approfondire le questioni che abbiamo toccato. Comincio io con le cose che sono andato scrivendo sul mio blog a proposito di algoritmi, coding, monopolio e opensource:
Va bene. Io cito il mio blog preferito, “Concetti contrastivi”,
che si propone niente meno che di “Descrivere le tecnologie digitali
come prodotto sociale e svelarne le ambiguità in modo emancipato e con
scopo emancipante” e un mio recente intervento in un convegno, sull’impossibile neutralità delle e verso le piattaforme.
ANSAS-INDIRE: La Biblioteca di Documentazione
Pedagogica, ente di importanza nazionale istituito nel 1974, ha assunto a
partire dal 1995 anche la funzione di supportare le scuole nell’uso di
Internet. Nel 2001 è diventata Istituto Nazionale di Documentazione per
l’Innovazione e la Ricerca Educativa, nome modificato nel 2006 in
Agenzia Nazionale per lo Sviluppo dell’Autonomia Scolastica (ANSAS) e
poi ripreso nel 2012. Come sintetizzato nella pagina di autoricostruzione storica:
“Nel periodo 2001-2011, l’Istituto è impegnato in grandi iniziative
online per la formazione degli insegnanti italiani e nella promozione
dell’innovazione tecnologica e didattica nelle scuole”.
ITD: L’Istituto Tecnologie Didattiche è frutto dell’unione nel 2002 di due centri precedentemente realizzati dal Consiglio Nazionale delle Ricerche:
l’Istituto Tecnologie Didattiche di Genova (1970) e l’Istituto
Tecnologie Didattiche e Formative di Palermo (1993). Come ricordato
nella pagina iniziale del sito,
che permette anche l’accesso immediato ai progetti più recenti, “è il
solo istituto scientifico italiano interamente dedicato alla ricerca
sull’innovazione educativa veicolata dall’integrazione di strumenti e
metodi basati sull’uso delle tecnologie dell’informazione e della
comunicazione”. Segnaliamo in particolare il servizio Essediquadro, l’attenzione alla didattica inclusiva e – più di recente – le riflessioni sulla didattica di emergenza.
IRRSAE-IRRE: gli Istituti di ricerca regionali, di
sperimentazione e aggiornamento educativi sono stati istituiti nel 1974
in tutte le regioni italiane, impiegando personale “comandato”, ovvero
distaccato dalle funzioni direttive, docenti e tecnico-amministrative
ordinarie sulla base di procedure concorsuali, per svolgere attività di
supporto alla ricerca educativa, alla sperimentazione didattica e
all’aggiornamento metodologico. Nel 1999 gli IRRSAE hanno assunto il
nome di IRRE – Istituti regionali di Ricerca educativa, enti strumentali
del Ministero dell’istruzione -, per essere infine assorbiti nell’ANSAS
(2007).
OTE: L’Osservatorio Tecnologico per la scuola è
stato un servizio nazionale di consulenza e informazione erogato in rete
tra il 2000 e il 2009 a proposito delle tecnologie dell’informazione e
della comunicazione, particolarmente attento alla accessibilità dei
siti, alla navigazione sicura, al software open source e ai contenuti
aperti. Il sito è tuttora raggiungibile, anche se non è più aggiornato.
MAPPE CONCETTUALI Sintesi del contenuto del testo
CREDITI
Per l’immagine di copertina (a sx Marco e a dx Stefano, entrambi fans di Don Chisciotte): elaborazione di foto di André SAAD da Pixabay
Il professor De Faustiis non ce la fa più. Guarda le facce dei colleghi riuniti per il collegio dei docenti e gli viene voglia di alzarsi, uscire, camminare, persino andare a fare la spesa. Già, la spesa: anche ieri si è scordato di comprare le crocchette per il gatto. Mi sa che tocca cambiare marca, Pallino sembra svogliato. Forse passare ai bocconcini? “Che facciamo, De Faustiis, ci distraiamo come al solito?” La voce viene dal monitor, da una faccetta apparsa a fianco alle altre. Ma non è un docente, almeno non uno che De Faustiis riconosce. Assomiglia.. sì, assomiglia a Guy Fawkes. “Scusi, lei chi è? E come si permette…” “Ma dai, tanto non ci sente nessuno. Anzi non mi vede nessuno, sono qui solo per te.” In effetti, i colleghi continuano a litigare tranquillamente come se non si fossero accorti di nulla. “E chi sarebbe lei, Anonymous? La Legione?” “Quasi. Ma qui non si parla di me, ma di te. Ma ti sei visto? Sei pallido, curvo, hai pure preso qualche chilo nei posti sbagliati”
De Faustiis si guarda nello specchio della videoconferenza. E’ vero, non sta proprio una favola. Sarà la luce del monitor, ma la pelle è un po’ verdina.
L’altro incalza.
“Sei stanco, sei scocciato, non ne puoi più. Si capisce, eh. Con le vostre condizioni di lavoro anch’io sarei stufo da un pezzo. “
“Ma come? A me insegnare piace, cosa crede?”
“Certo, come no. Anche correggere ventiquattro versioni in una serata. Anche preparare per l’ennesima volta la lezione su Tacito e Domiziano. Anche parlare sei ore con i genitori dei progressi degli adorati pargoletti e partecipare ai collegi docenti, vedo.”
“…”
“E soprattutto: collegarsi di qua e di là, tutto il tempo online, rispondere, chiedere, cercare, provare… e mai, mai qualcosa che funzioni al primo colpo”
“Questo sì, in effetti, ma è solo l’emergenza, tra poco…”
“Ma che emergenza, questo è il presente continuo, è il futuro perfetto, mio caro. Ti devi arrendere, d’ora in poi questa sarà la tua vita. “
Un futuro orrendo e distopico si affaccia alla mente di De Faustiis per un attimo. Un incrocio tra Matrix e il castello di Kafka.
Emette involontariamente un gemito.
“E cosa ci posso fare?”
“E’ qui che entro in gioco io. Ti faccio una proposta davvero vantaggiosa: ti risolvo tutti i tuoi problemi con un sistema unico, che non devi nemmeno installare. Tu accedi, parli, schiocchi le dita e da quel momento tutto funziona magicamente, tout se tient. Vuoi parlare con la collega di Arte? Basta che pronunci il nome e parte la videoconferenza, anche dallo specchio del bagno. Vuoi ritrovare i voti della terza B ordinati per profitto? Eccoli qui, stampati, sul comodino. Non ti ricordavi di averglieli dati, quei voti? E’ normale, glieli ho dati io sulla base dei voti degli anni scorsi, tanto che vuoi che cambi?”
De Faustiis comincia ad avere l’acquolina in bocca. “E dove starebbe questo software meraviglioso? Sul Cloud?” “Ma che ti importa di dove sta… e poi tu che ne sai di cosa è veramente il cloud? Sono sicuro che te lo immagini come una specie di paradiso, tra le nuvole, con gli angioletti che spolverano i tuoi dati… vero?” “Beh, sì, in effetti non ho molto chiaro… “ “Comunque, la sostanza è questa: tu accetti le condizioni, e hai risolto tutti i tuoi problemi con la scuola, per sempre. Come diceva il piccoletto verde con le orecchie a punta? Non c’è provare, c’è fare. Non dovrai più pensare, cercare, affaticarti. Vuoi, e fai. Anzi, faccio io prima ancora che tu voglia. Non è questo, il paradiso?” “E… quanto costerebbe?” “Soldi? Tu mi parli di soldi? Oh, ma per chi m’hai preso? Questa roba non si compra. A me basta una sola piccola cosa…” “Oddio no, l’anima!”
Momento di pausa. “Sei veramente un romantico inguaribile. Ma quale anima, voglio i tuoi dati personali. Dai, firma qua.”