Digi Tales

Intellig-enti

Parto invitandovi a leggere questo articolo di Wired in cui Andrea Indiano dà conto della moda recente di usare generatori automatici di immagini a partire da testo per “arredare visivamente” clip audio.

https://www.youtube.com/watch?v=tgBHgmMI4kU

I generatori di immagini da una descrizione (txt2img) sono un po’ l’inverso dei software che riconoscono soggetti all’interno di foto. Questi ultimi sono diventati quasi standard (anche le immagini caricate su Facebook passano per questo tipo di analisi) e se ne parla solo a proposito della liceità dell’uso di questi algoritmi nel caso del riconoscimento dei volti umani in regimi totalitari. O in regimi. Insomma, ovunque.
Qui invece di solito si parte da un testo che descrive una situazione un po’ come i sottotitoli per non udenti. Solo che qui la descrizione non è limitata dalla realtà, anzi non descrive ma crea. Ad esempio: “un cerbiatto rosa sulla luna che sorseggia una coca-cola.” Qualche filosofo direbbe che è un caso eclatante del potere del linguaggio che non rappresenta il mondo ma lo porta all’esistenza.
L’idea è provare a utilizzare lo stesso strumento non con un testo descrittivo fatto apposta, ma con le parole di una canzone. Un esempio: The Sound of Silence, di Simon&Garfunkel. Oppure: Space Oddity di David Bowie.
L’uso di immagini per riempire il vuoto visivo di una canzone pubblicata in un canale video-centrico come Youtube non è una novità. E’ sempre più difficile imbattersi in un clip video che ripropone una vecchia canzone di Fabrizio De André con l’immagine fissa della copertina del disco originale. Se c’è, è stato pubblicato parecchi anni fa. Come minimo oggi ci sarebbero le sequenze in dissolvenza delle foto dei concerti oppure delle immagini “di repertorio” rubate qua e là (una stazione per “Bocca di Rosa”, un mucchietto di diamanti per “Città vecchia”, eccetera). Se non siete boomer, non potete capire.
La novità è invece che si comincia a trovare un uso sensato di questa funzione di “frullatore intelligente di immagini”. Come spesso succede, non si tratta di un uso davvero nuovo di una funzione nuova, ma della replica accelerata di qualcosa che esisteva. Nella versione tradizionale c’è un umano che gira per depositi di immagini free (come Pixabay o Unsplash), cerca e seleziona immagini sulla base delle parole del testo; nella versione AI questo processo viene coagulato in un’azione singola affidata ad un software. En passant viene anche risolto il problema del copyright generando immagini nuove che superano il vincolo della licenza d’uso (almeno per ora: il diritto d’autore dovrà aggiornarsi).

Sembra che i generatori più usati per dare una controparte visiva ai clip audio siano Dall-E, Midjourney ma anche Stable Diffusion . Magari a voi sembrano tutti uguali, ma non lo sono: per quanto quasi tutti siano gratuiti almeno nella versione limitata, alcuni sono anche scaricabili e utilizzabili sul proprio PC, o persino modificabili, grazie ad una licenza opensource, mentre altri sono proprietà dell’azienda che li ha sviluppati e che ne permette l’uso come servizio web, più o meno gratuito, più o meno vincolato. Però una cosa è un ragazzetto del Minnesota che si diverte a creare videoclip a partire dai suoi brani preferiti e una cosa sarebbe Youtube che introducesse una funzione che associa automaticamente le immagini a qualsiasi clip audio caricato dagli utenti. Nel primo caso il controllo finale è ancora in mano all’utente/cliente, nell’altro sarebbe completamente in mano del fornitore di servizi. Non della “rete”, soggetto generico onnipresente, ma di un determinato attore del mercato globale che persegue suoi obbiettivi economici, di comunicazione, di ricerca etc. in totale (e legittima) autonomia. Per esempio, Youtube potrebbe usare una qualità più bassa, oppure delle immagini leggermente sgradevoli, in associazione a certi clip audio per scoraggiarne l’uso o per indurre un sentimento negativo negli spettatori.
Era questo l’obiettivo dei ricercatori che hanno messo a punto Dall-e o Midjourney? Credo di no. OpenAI, la società californiana che sviluppa Dall-e 2, è stata fondata da Elon Musk ed è finanziata da Microsoft; Imagen è sviluppato da Google.
Magari il prossimo passo sarà la produzione di un cartone animato o di un videogioco, visto che cinema e videogiochi sono un mercato enorme e che hanno dei costi di produzione legati alla manodopera specializzata umana ancora altissimi. Per un buon “training” dei modelli però non basta avere sterminati archivi di immagini a disposizione: occorre anche la valutazione degli utenti finali. Di qui l’interesse a permettere l’uso delle versioni beta di questi software a più persone possibile. Più giochiamo con Dall-E, più aiutiamo Microsoft, gratis.
Quindi usare l’uno o l’altro è anche una questione di scelta politica, non solo estetica. Tenere conto di questi aspetti quando si riflette e si scrive di applicazioni dell’IA alla vita dovrebbe essere ovvio; a giudicare da quel che si legge invece non lo è.




Potremmo fermarci qui e invece andiamo avanti. “Questa non è intelligenza!“: può darsi che questa frase vi sia venuta in mente guardando i videoclip.
Non siete i soli. Ci sono state discussioni infinite sull’intelligenza della macchina, o del software che l’ha prodotta, o del gruppo di programmatori che ha scritto il software. Infatti la prima domanda è: chi è il soggetto in questo caso? Chi è l’ente che si nasconde dentro l’intelligente?
La sorgente di queste discussioni sta nel fatto che questi software sono applicazioni di machine learning, ovvero non sono intelligenti nella interpretazione consueta dell’aggettivo. Non ragionano sulla base di regole, non deducono, non cercano percorsi alternativi.
Quello che farebbe un software tradizionale è costruire una query (una stringa di ricerca) basata sulle parole fornite dall’utente (nel caso di sopra, il verso della canzone) e sulle loro relazioni. La query verrebbe passata ad un motore inferenziale capace di astrazione (per esempio, da “Bambi” sarebbe in grado di dedurre cerbiatto, cervo, mammifero, quadrupede, animale). Applicata ad un archivio di miliardi di immagini la query restituirebbe un certo numero di immagini che poi sarebbero state mixate, filtrate, adattate in base anche allo stile impostato dall’utente-creatore.
Invece le applicazioni di machine learning funzionano diversamente. Partono direttamente dall’archivio di immagini marcate con parole o valutazione di utenti umani (prese da Pinterest, Flickr, Wikipedia etc) e le utilizzano per costruire dei modelli; poi analizzano il testo di input e lo forniscono come filtro al modello che produce letteralmente la nuova immagine. Tutto sta nel modello, e infatti è la parte più complicata e costosa da produrre.
Un modello è sostanzialmente costituito da un numero enorme di parametri, cioè di coppie proprietà/valore. Un triangolo è un tipo di modello, ma ha solo sei parametri: la misura degli angoli e la lunghezza dei lati. Se si volesse costruire un modello di un triangolo fisico occorrerebbe aggiungere altri parametri: la posizione nello spazio, il peso, il tipo di materiale, il colore. Un modello di una perturbazione meteorologica è molto, molto più complesso. I modelli usati dai software di machine learning possono avere miliardi (letteralmente) di parametri.
E’ fondamentale, nella prima fase, l’utilizzo dei commenti da parte di umani per la marcatura delle immagini. Qui l’aspetto quantitativo è vincente, e come è ovvio introduce enormi bias culturali: se si prendono solo i commenti in inglese, si replica la maniera di vedere il mondo degli umani anglofoni, se non statunitensi o britannici.

E’ la fine dell’arte, è la fine delle scuole d’arte? Dopo gli autori di traduzioni, di recensioni, di musica, ora gli autori di quadri andranno in pensione anticipata? Ne abbiamo già parlato qui.
Torniamo alla nostra frase: “Questa non è intelligenza”.

In questa frase ci sono, a mio parere, tre errori; errori che non fanno sicuramente (più) gli scienziati che si occupano di intelligenza, dagli psicologi ai neurobiologi, ma che facciamo più o meno tutti quando ragioniamo affacciati alla finestra di qualche social network, cioè la maggior parte del tempo:

  1. che l’intelligenza sia innata, data una volta per sempre agli umani (e non alle macchine), purtroppo in maniera variabile;
  2. che l’intelligenza sia assoluta e non relativa ad un contesto, ad una situazione;
  3. che l’intelligenza tout court coincida con la forma di intelligenza codificata nel mondo adulto occidentale.

A questo punto la tradizione vuole che ci si interroghi sul significato della parola. Cos’è l’intelligenza? Domanda a cui sono state date tante risposte quanti erano i contesti storici, politici, sociali in cui è stata posta. Difficile dire quale sia quella corretta in assoluto, difficile persino parlare di correttezza e scientificità per una definizione di qualcosa che assomiglia più ad un assioma che ad un teorema, nel senso che è un presupposto e non qualcosa di dimostrabile. Probabilmente è uno dei costrutti chiave del Novecento, così come nell’Ottocento un costrutto fondamentale era “lavoro”. Anzi, si potrebbe forse dire che una delle differenze tra Ottocento e Novecento è proprio il passaggio dall’organizzazione e efficientamento del lavoro degli operai potenziando i loro muscoli con quelli della macchina a vapore alla sostituzione dell’intero lavoro fisico con l’intelligenza; passaggio che sfrutta il concetto di macchina e lo trasforma in quello di automa. Ma qui divagheremmo troppo.
Molte sono le definizioni che, a mio parere, si limitano a spostare il problema, cioè usano nella definizione termini che a loro volta dovrebbero essere definiti (“the capacity… to think rationally“, Wechsler; “the ability to deal with cognitive complexity”, Gottfredson) fino a quelle ricorsive (“L’intelligenza è ciò che è misurato dai test di intelligenza”, Boring). Ci sono le definizioni che puntano sull’adattamento all’ambiente (Binet, Feuerstein) e quelle che sottolineano il raggiungimento di obiettivi (Legg e Hutter, Stemberg e Salter). Tutto questo lo potevate trovare su Wikipedia ma vi ho risparmiato la fatica di cercarlo.
Quella che mi convince di più è una definizione più filosofica che psicologica: “L’intelligenza è l’abilità di mettere ordine in una situazione complessa con il minimo consumo di risorse“. Questa definizione si basa su due valori molto generali: l’ordine è preferibile al caos, da un lato, e il risparmio di energie è preferibile allo spreco. Il primo valore ha a che fare con l’ambiente, il secondo con il soggetto che si trova in quell’ambiente. L’intelligenza mette in relazione questi due valori, ne cerca un equilibrio. Come dire: sarebbe bellissimo avere una situazione perfettamente ordinata, ma non al prezzo di consumare tutte le risorse disponibili. Una situazione ordinata è una situazione prevedibile, con meno rischi; non sprecare risorse e tenersene da parte un po’ per i giorni di pioggia è un altro modo di ridurre i rischi. Inutile ridurre da una parte e aumentare dall’altra. Oppure sì, ma va tenuto d’occhio l’ago della bilancia.
E’ una definizione di chiaro sapore evoluzionistico, ma avevo avvertito che si trattava di una definizione filosofica, non scientifica.
A mio parere ha diversi vantaggi. Intanto è un modo di ricordarsi che l’intelligenza non è buona o cattiva in sé, ma solo in un contesto determinato, come meta-strumento per ottenere risultati che – loro – sono considerati positivi: la conservazione in vita dell’individuo, la trasmissione del patrimonio genetico.
Non fa riferimento a concetti legati alla mente, ma solo al fatto (puramente organico) che usare i muscoli per spostare un masso consuma più energie che immaginare di farlo. Una volta ho letto un romanzo fantasy in cui fare una magia “costava” al mago, non proprio lo stesso sforzo dell’azione reale ma qualcosa di proporzionale. Non è un paragone fuori luogo: la magia è una forma di intelligenza.

Questa abilità è considerata un valore dal punto di vista dell’individuo, al punto da cercare di misurarla con dei test, perché è un valore dal punto di vista della comunità. Una comunità fatta di persone intelligenti è più efficiente, si conserva meglio nel tempo, cresce.
La Grecia classica, Atene in particolare, aveva puntato su questo valore a livello di cultura: i sofisti, i retori, i filosofi sono un’immagine concreta del valore che si attribuiva alla capacità del cittadino di ragionare con la sua testa e decidere. La Grecia aveva portato questo valore anche a livello di politica estera, ritenendo possibile sconfiggere l’impero persiano, così tanto superiore per potenza di armi e uomini, con la strategia, gli accordi tra città e la pianificazione.
Ma si può leggere in questo modo l’intera evoluzione umana, raccontando una storiella come questa: tanti anni fa, puntando sull’intelligenza, sulla categorizzazione di situazioni apparentemente diverse, sulla previsione, sulla pianificazione, i primi umani riuscirono a sopravvivere in un contesto in cui c’erano animali ben più forti e resistenti. L’intelligenza si cristallizza in strumenti: un utensile non è altro che un’astrazione di infiniti possibili contesti d’uso. L’intelligenza si trasmette attraverso le generazioni, se nel frattempo si inventa un linguaggio.

Forse individualmente non siamo ancora perfettamente tranquilli nello scommettere sull’intelligenza contro la forza in tutte le occasioni. Non tutte le battaglie sono vinte grazie alla flessibilità della tattica o per merito della migliore armatura (come nel 490 a Maratona). Quando a Kinshasa nel 1974 Mohammad Alì vince contro George Foreman – che era dato per favorito 3:1 – fa scalpore e ce lo ricordiamo perché di solito quando si fa a pugni vince il più forte (che era Foreman: più giovane di sette anni, più alto, più pesante). Alì inventa una tecnica intelligente (rope-a-dope: usa le corde del ring per assorbire la forza dei pugni di Foreman) che dopo quella volta viene riusata anche da altri pugili.



Malgrado questo, come specie, siamo fondamentalmente convinti che l’intelligenza sia una strategia vincente, tant’è che ci affanniamo a insegnarla ai cuccioli d’uomo, anche quando non devono affrontare tigri e serpenti. Curiosamente, non lo facciamo frontalmente, ma per vie traverse. A scuola non si insegna intelligenza, ma matematica, fisica, magari coding. Certo si fa anche educazione motoria, ma non c’è paragone quanto a risorse dedicate.
Ma perché allora non puntare direttamente all’apprendimento dell’intelligenza? Perché ricorrere a giri di parole come “lo studio del Latino insegna a ragionare”? Credo che la risposta sia semplice: perché non abbiamo idea di come altro si possa fare. Non abbiamo idea di come insegnare la capacità di risolvere problemi senza dei problemi concreti da cui partire. Pensiamo di poter dire che l’esercizio della traduzione, o quello della soluzione di equazioni, favorisce l’abilità generale che chiamiamo intelligenza: ci sembra che chi lo pratica per un certo tempo poi sia in grado di affrontare anche altri tipi di problemi e inventare soluzioni economiche. In questa prospettiva si spiega la posizione privilegiata di matematica, fisica e oggi di informatica nei curriculum scolastici di mezzo mondo. Non è tanto il fatto che le STEM (science, technology, engineering and mathematics) in quanto tali siano importati per la professione futura (anzi, forse lo sono sempre di meno), ma il fatto che grazie al loro insegnamento manteniamo e potenziamo l’intelligenza della specie.
La matematica è un’applicazione dell’intelligenza agli aspetti del mondo che si possono quantificare. Per scambiare pecore con orci d’olio ci sono due modi: uno richiede di accoppiare fisicamente le une e gli altri fino ad ottenere una parità; l’altro si limita a contare orci e pecore e a confrontare i numeri.
La fisica è un’applicazione dell’intelligenza alla previsione del comportamento di alcuni aspetti della materia, come la posizione, che cambiano spesso. Ci piacerebbe sapere in anticipo come cambiano questi aspetti; ma invece di aspettare e vedere che succede, si possono costruire delle regole, applicarle ripetutamente (simulazioni) e confrontare i numeri finali. Questi set di regole si chiamano “modelli”. Il risparmio, in questo caso, non è di fatica muscolare ma di tempo, che è comunque una risorsa fondamentale.
La chimica è una cuginetta più giovane della fisica: si occupa di trasformazioni profonde della materia, quelle per cui gli oggetti diventano altro. Lo fa allo stesso modo delle fisica, cercando di costruire modelli matematici unici di contesti che sembrano diversi, a costo di mettere in gioco elementi invisibili ma che hanno un peso. Lo sforzo di pensare la struttura profonda della materia è ricompensato con una capacità di produrre materia nuova usando quella che esiste. Rinunciando a vedere la materia, mettendo tra parentesi i sensi, facciamo un’ottimizzazione che ci consegna un maggior poter sul mondo.
La teoria generale dell’insegnamento dell’intelligenza è dunque questa: fare pratica dell’uso di schemi di ordinamento di situazioni complesse in domini limitati, ristretti, sperando che questa esperienza si coaguli in competenza, cioè in capacità di riapplicare al momento giusto alcuni degli schemi che abbiamo sperimentato positivamente in passato. Non si offendano i docenti di matematica e scienze: non c’è una grande evidenza sperimentale che questo metodo funzioni, ma è talmente diffuso che non lo mettiamo nemmeno in discussione.
Anche l’informatica è un’applicazione dell’intelligenza agli aspetti del mondo, sulla stessa strada di matematica, fisica e chimica. Solo che non esclude nessun oggetto e nessun aspetto: prende luci, suoni, movimenti e trasforma tutto i numeri. Ambisce a costruire modelli di tutto ciò che ha una forma: dalla forma degli oggetti allo schema delle relazioni sociali, da quella del territorio al profilo dei clienti. Su questi modelli applica algoritmi che consentono di misurare, prevedere cosa succederà, creare oggetti nuovi (anche se solo virtuali). Il doppione del mondo che mira a costruire è un’incarnazione perfetta dell’intelligenza: tutto forma e niente materia, replicabile, indistruttibile, pulito, razionale.
Naturalmente, con buona pace di Leibiniz che sperava che un giorno tutti i filosofi si sarebbero messi a calcolare invece di discutere vanamente, gli algoritmi informatici richiedono un velocità di calcolo che i nostri cervelli singoli non hanno. Per quanto un famoso teorico dal cognome impronunciabile abbia detto che “L’informatica non riguarda i computer più di quanto l’astronomia riguardi i telescopi”, invece l’informatica senza i computer – computer sempre più veloci – non servirebbe a nulla.


Qui si apre un bivio tra apocalittici e integrati. C’è chi ritiene che per renderci davvero intelligenti l’informatica ci chiede di rinunciare non solo ai muscoli, ma a tutto il corpo, fino a sostituire il soggetto organico con un agente meccanico capace di mettere ordine consumando pochissime risorse (così almeno promette; in realtà si comincia a capire che il consumo di elettricità dei centri di calcolo dove risiedono le applicazioni e i dati che insieme costituiscono il “cloud” dovrebbe essere tenuto sotto controllo). Quindi insegnare il coding a scuola è inutile e contraddittorio: mentre insegniamo l’informatica ai bambini, l’informatica si sta sviluppando nella direzione di rendere vano questo sforzo didattico. E’ lo spettro evocato da tanti romanzi e film di fantascienza: quando i robot diventeranno intelligenti non avranno più bisogno di noi.
C’è chi invece pensa che l’informatica si limiti a supportarci, come un’estensione buona della nostra intelligenza ma all’esterno del nostro corpo. Non sostituisce ma potenzia. Ci permette finalmente di trasformare dati in informazioni, in conoscenze e forse in sapere. Ci rende la vita più piacevole, ci libera dalla fatica di ricordare. Come diceva in una delle sue battute meno riuscite Aristotele: gli schiavi (digitali) permettono agli uomini liberi di avere più tempo da dedicare alla filosofia. Quindi insegnare coding a scuola e fuori fa bene all’intelligenza dei ragazzi, che impareranno finalmente a pensare in maniera razionale, logica, senza errori, come dei bravi computer.

Entrambe queste visioni, a mio parere, sono astratte. L’informatica non è un soggetto, non ha obiettivi, non va da nessuna parte da sola. Le ricerche più avanzate nei domini dell’intelligenza artificiale si fanno fuori dalle università. Le sperimentazione con miliardi di utenti vengono gestite da aziende che hanno un obiettivo di business immediato e un piano più generale di conquista dei mercati.
Sono aziende guidate da persone che rispondono agli azionisti.
D’altra parte, come detto prima, l’informatica ha bisogno di hardware e l’hardware costa. Il supercomputer Leonardo, inaugurato a Bologna pochi giorni fa, è capace di un miliardo di miliardi di operazioni al secondo ma è costato 240 milioni di euro. Però il costo maggiore non è quello dei transistor: è quello dell’elettricità che serve per farli funzionare. E’ noto che Alphabet, l’azienda che è proprietaria di Google, ha coperto i suoi centri di calcolo di pannelli fotovoltaici per prodursi in casa l’energia necessaria e non doverla comprare da nessuno. Una buona cosa, no? Certo, basta sapere che fine faranno quei pannelli quando non saranno più produttivi. O, da un altro punto di vista, basta sapere l’impatto che può avere sull’economia di un Paese l’arrivo di una google-farm che comincia a produrre e a rivendere energia elettrica ad un costo competitivo rispetto a tutti gli altri attori del mercato, fino a conquistare il monopolio.
Cosa c’entra il coding? Beh, il coding non andrebbe né rigettato come contagioso, né sposato come strada maestra per insegnare l’intelligenza ai bimbi. Dovrebbe essere appreso come un mezzo particolarmente efficace didatticamente per simulare il mondo (matematico, fisico, chimico, biologico, linguistico,musicale,geografico,…), fare ipotesi e verificarle senza necessariamente andare dietro alle ultime opinioni che abbiamo sentito in giro; ma anche un modo per capire come funziona il mondo sociale: che società ci aspetta? chi decide cosa possiamo vedere e sentire, cosa possiamo leggere, con chi possiamo comunicare? Usare i robot in classe dovrebbe permettere di interrogarsi insieme su cosa succederà quando tutti i lavori saranno svolti da robot. Andare a caccia di dati (per esempio, sull’ambiente) dovrebbe essere un modo per rendersi conto del loro valore e scoprire che non tutti li rilasciano allo stesso modo, o che non tutti i motori di ricerca sono agnostici. Scrivere piccoli programmi potrebbe essere un modo per riappropriarsi dei computer e sfruttarli per fare qualcosa di utile prima di tutto per noi, come speravano negli anni sessanta gli inventori degli home computer e dei linguaggi di programmazione per tutti.
Potremmo ancora dire che fare coding aumenta l’intelligenza? Senz’altro, anche se non nel senso che insegna a diventare computer. Anzi, insegna a non farsi programmare.



Ma quale intelligenza?
La forma di intelligenza che prevale nella nostra culture è quella adulta e formalizzata. Quella che si può descrivere mentre si applica, in cui i passi sono consapevoli e si possono identificare ed etichettare. E’ l’intelligenza formalizzata, la logica. Il meccanismo principale, potremmo dire il motore che la fa girare e che produce risultati, si chiama “deduzione”. I filosofi hanno passato duemila anni a raffinarla, a porre dei limiti a cosa può fare o non fare, fino a dire che se è definita proprio precisamente potrebbe applicarla anche una macchina. La possiamo chiamare intelligenza di tipo B.

Perché B? perché i bambini appena nati non hanno questo tipo di intelligenza, ma iniziano a cercare di categorizzare il mondo e a selezionare le risposte che mettono ordine. Categorizzano milioni di aspetti e situazioni, ipotizzano azioni, le sperimentano, le scartano. Questo è il mondo fondamentale con cui la specie umana (e probabilmente tutte le specie animali superiori, e forse anche tutte le specie viventi) acquisiscono intelligenza. Questa la chiamiamo intelligenza di tipo A. E’ il tipo di intelligenza che ci appartiene di più, come essere umani, perché non ce la deve insegnare nessuno. Anzi, senza di lei, non sapremmo neppure che ascoltare un adulto esperto in generale è una buona idea, perché se è ancora vivo forse può insegnarci qualcosa che non sappiamo.

Decisamente curioso allora è il fatto che quando parliamo di intelligenza per sottrazione (“i computer non sono veramente intelligenti, gli manca A B e C”) facciamo riferimento ad una forma di intelligenza che tutto sommato è più loro che nostra.

Fatto sta che l’industria dei computer non poteva fermarsi. Tutti i dispositivi elettronici sono un po’ intelligenti, nel senso che sanno fare velocemente cose molto complicate, adattandosi al contesto, soprattutto se sono connessi tra loro. Ma insomma i PC non hanno realizzato quell’eden che ci avevano promesso: ci tocca ancora alzarci la mattina per lavorare, anche se da casa. Però un produttore di hardware non può smettere di creare macchine sempre più veloci e potenti per il solo motivo che alle persone comuni non servono a nulla. Tra l’altro qualcuno quelle macchine se l’era comprate davvero: tante macchine, molto grosse. Una volta impiegato il 10% della loro potenza per fare ricerche o vendere libri col restante 90% qualcosa dovevano pure farci.
Insomma, dopo aver fallito nel dare l’intelligenza di tipo B alle macchine (cioè a formalizzare comportamenti intelligenti per compiti non banali o non quantitativi in modo da renderli eseguibili da macchine), siamo tornati al tipo A e abbiamo “riscoperto” il machine learning: un soggetto che cerca di categorizzare il mondo sperimentando risposte organizzative. Mentre però una specie animale impiega milioni di anni, e un individuo parecchi anni, le grosse macchine attuali impiegano molto meno tempo, ore o al massimo giorni. Diciamo che i muscoli, in questo caso, sono al servizio dell’intelligenza, nel senso che la crescita della pura potenza di calcolo di un computer nel corso degli ultimi settant’anni è stata molto, ma molto superiore a quella di qualsiasi organismo vivente. La cosiddetta Legge di Moore ipotizza che la potenza di calcolo dei computer raddoppi ogni due anni. E’ una legge empirica che non tiene conto di tantissimi altri fattori, ma indicativamente significa che dai primi computer degli anni ’50 ad oggi la potenza è raddoppiata 35 volte. 2 alla 35 fa 34 miliardi e spicci: è la misura di quanto i computer di oggi sono più potenti dei primi.

http://www.ozengenharia.com.br/blog/tag/corvo-albino/


Va detto a onore dei filosofi che questa prima forma di intelligenza l’avevano definita da un pezzo: si chiamava “induzione”. Piaceva tanto agli inglesi nel ‘600: se vedo un corvo nero, può essere un caso. Se ne vedo 10, comincio ad avere dei dubbi. Se tutti i corvi che vedo sono neri, allora è un complotto oppure tutti i corvi sono neri, cioè “nero” è una proprietà necessaria dei corvi. Però già sapevano che è un’intelligenza un po’ rozza, approssimativa, non porta sempre a risultati corretti: esistono i corvi albini. Anzi il problema è proprio che non si sa se i risultati sono corretti. Inoltre il risultato dipende fortemente dalle prime osservazioni, che portano a puntare in una certa direzione, cioè a cercare animali alati e neri. Non possiamo fare ameno di usare l’induzione ma sappiamo che non ci possiamo fidare completamente.
E’ di qualche giorno fa la notizia che Meta ha temporaneamente ritirato Galactica, un motore di ricerca “intelligente” specializzato nelle produzione di abstract da pubblicazioni scientifiche, basato ovviamente sul machine learning, perché produceva dei risultati falsi.
Ancora una volta i filosofi, nella loro passeggiata guardando le stelle, un attimo prima di cadere in un pozzo, avevano scritto che siamo incastrati tra due forme di intelligenza limitate: la deduzione che non porta niente di creativo e l’induzione che non porta niente di sicuro. Poi hanno provato a definire forme nuove di intelligenza, con risultati un po’ dubbi. Ma almeno hanno indicato una direzione, ci hanno suggerito di cercare di non restare bloccati nel dilemma, o per lo meno di cercare di non prenderci per dèi.

Tanto per riassumere, all’americana: l’intelligenza è un’abilità che si acquisisce, si perfeziona. Certo occorrono delle basi neurologiche, come occorre un contesto stimolante. Ma il processo di acquisizione non si può bloccare, neanche volendo, perché funzioniamo così.
L’intelligenza non è un’abilità assoluta, indipendente dalla cultura, dalla lingua, dall’età. L’intelligenza assume forme diverse in funzione della situazione problematica che va affrontata.

Abbiamo deciso, come specie e come continente, di privilegiare una certa forma di intelligenza, che è facilmente riconoscibile e (pare) facilmente insegnabile. Ne abbiamo fatto un valore a sé, dimenticando che è solo un mezzo conveniente, efficace fino ad un certo punto. Ce ne siamo accorti quando abbiamo tentato di concedere questo tipo di intelligenza a certe macchine, con risultati così così.

Allora qualcuno si è ricordato che c’è almeno un’altra forma di intelligenza, che dovremmo conoscere molto bene ma che tendiamo a scordare, che si può cablare nelle macchine. Così sono stati creati dei bambini digitali che pasticciano, scarabocchiano, cantano imparando da noi. Staremo a vedere quanto ci mettono a diventare adulti. Poi se li chiudiamo in una stanza e gli diamo da vedere solo cartoni animati, beh forse adulti non ci diventeranno mai.

Infine: si sviluppa la propria intelligenza in tante maniere, e tra queste c’è quella di creare mondi virtuali, fare ipotesi e verificarle immediatamente tramite la programmazione dei computer. Magari applicando questa tecnica anche agli stessi computer, le reti e ai servizi che passano attraverso: come funziona? dove va a finire questo filo? chi c’è dall’altra parte dell’antenna?


Ah, a proposito: l’informatica non è un prodotto dello spirito del tempo.

Contro le competenze

Faccio coming out: sono una persona competitiva.

Lo sono da quando ero piccolo. Non sugli oggetti fisici, che si possono comprare, ma sulle competenze, che si possono acquisire. Voglio fare le cose meglio, sempre meglio. Vorrei sempre essere più competente degli altri, o avere più competenze. Soprattutto voglio che la competenza mi venga riconosciuta come qualità, voglio che tutti mi apprezzino e mi vogliano bene per questo.

Normale? Secondo l’autore anonimo responsabile della pagina “Competenza” su Wikipedia sì: “Qualsiasi percorso si scelga nella vita la competizione è inevitabile, poiché solo attraverso di essa si selezionano i migliori”. Il legame tra competizione e competenza non è solo etimologico, allora.

Positivo? Beh, dipende.

E’ una faticaccia, che mi stressa, mi costringe a tenere sempre alta l’attenzione. Non posso farmi trovare impreparato o stanco, se entro nell’agone poi devo vincere. Mi rende anche antipatico: non solo a quelli che competono e perdono, ma anche a quelli che vincono (che sono miei simili e quindi, giustamente, diffidano di me per il futuro). Per non parlare di quelli che non amano le competizioni e che si annoiano quando gli tocca di assistere. Mi fa dormire male, perché mi pare sempre che mi manca qualcosa, come nei sogni in cui si entra in una stanza affollata in mutande.

Per fortuna (!), anni di educazione cattolica messi a bagno nel magma della politica giovanile degli anni ’70 qualche effetto lo hanno prodotto: la forza, il successo, il potere non erano dei valori da ricercare, mi dicevano: e io ci ho creduto.

Di conseguenza qualche dubbio sull’etica della competizione ce l’avevo, anche se non riuscivo a risolverlo. Per esempio, quando col biliardino si rigiocavano i mondiali del ’70, tutti volevano essere il Brasile. Io invece volevo essere il Belgio, che tanto si sapeva che sarebbe arrivata ultima malgrado i suoi arrembaggi (all’epoca non era ancora una squadra di professionisti). Non che volessi perdere, non ero masochista; ma non volevo vincere da favorito. E se succedeva che vincevo troppe partite – quindi il Belgio diventava favorito del nostro mini-mondiale – allora volevo cambiare squadra. Il mio ideale di partita era senza tempo, senza termine: una partita eterna. Risultato: una contraddizione che non mi rendeva mai completamente felice, né nelle vittorie né nelle sconfitte.

Di chi era la colpa? Della scuola?

Il mio amatissimo maestro Biagio alla fine del quadrimestre regalava libri (le avventura di Sandokan, per lo più) a quelli che erano andati meglio. Era un modo per incitarci a studiare, ma dopo un po’ era chiaro che alcuni non avrebbero mai avuti libri e altri li avrebbero sempre avuti. In mezzo c’era una zona grigia dove raramente accadevano sorprese.

Più avanti mi fu chiaro che l’importante era essere i primi, non solo della classe, ma possibilmente della scuola. Anche e soprattutto nello sport, quello di De Coubertin, quello di Jules Rimet, insomma quello del motto “l’importante è partecipare”: il professore di ginnastica se ne fregava del tuo voto in latino se sapevi murare bene e schiacciare ancora meglio. Quando c’era la partita, veniva in classe e “pescava” i due tre che gli servivano, sottraendoli a compiti in classe e interrogazioni senza nessun imbarazzo e con flebili proteste dei professori di latino. Lo so, non siamo negli Stati Uniti, ma insomma succedeva pure qui.

Per fortuna la scuola non è solo un ambiente di formazione formale, ma è anche un grande laboratorio sociale, dove si impara ad avere relazioni con persone della propria età, ma anche più grandi e più piccole. Sostanzialmente a scuola cercavo di stare bene, non di competere, malgrado quello che dicevano e facevano gli insegnanti. Ad ogni ingresso in una nuova scuola faticavo a liberarmi dall’etichetta di “secchione” che mi veniva affibbiata dopo i primi compiti in classe. Questa liberazione coincideva col momento in cui dall’esercizio delle competenze negli ambiti ufficiali (le materie) si passava a quelle sociali (suonare, giocare a calcio, correre in motorino, bere birra), in cui contava più la soddisfazione collettiva che arrivare primi. In questo contesto ho imparato il concetto di “interruzione dell’esercizio della competenza”. Se si giocava a pallone e una delle due squadre vinceva sei a zero, si rifaevano le squadre. Se si andava al mare in motorino, era inutile lasciare indietro quello che aveva più chili e meno cavalli. Se si andava in birreria, si ordinava un giro per tutti finché qualcuno non dava segni evidenti di percezione alterata della realtà, e alla fine si divideva il conto. Probabilmente ho avuto solo la fortuna di passare quella fase della vita in un contesto sociale borghese e poco competitivo.

Allora colpa della famiglia? Sì e no. A casa mia era importante fare le cose bene, in assoluto, per le cose stesse, non per farle meglio degli altri. Non mi hanno mai incitato a competere ma a cercare la qualità. Nessun premio per i voti di fine anno o per le interrogazioni andate bene. Semplicemente perché non era concepibile prendere un brutto voto: avevo le risorse, il tempo, le capacità e le richieste erano quelle di una scuola pubblica standard. Perché mai avrei dovuto “andare male”? Poi c’era dietro la storia personale di mio padre, nato in un secolo contadino, da cui era uscito grazie alla scuola. Un diritto che si era dovuto conquistare facendo ogni giorno chilometri a piedi e studiando al lume di candela. Il tipo di storie da libro Cuore, insomma. Prendere un brutto voto sarebbe stata veramente un tradimento nei suoi confronti, soprattutto visto che nella vita lui aveva fatto proprio l’insegnante.

Colpa del lavoro? Altro caso particolare: avrei voluto lavorare in maniera stabile all’università, dove probabilmente la competizione l’avrei incrociata ad ogni passo. A posteriori, dopo tante “esplorazioni” in facoltà e università differenti, a volte come docente e a volte come ricercatore, devo riconoscere che evidentemente non avevo le competenze giuste. Invece ho passato quasi trent’anni in una società (quindi nel mondo degli affari, dell’impresa, del guadagno… il male assoluto) in cui non esisteva la possibilità di promozioni e in cui le decisioni si prendevano insieme; talmente piccola che per completare un progetto erano sempre necessarie le competenze di tutti. Continuo ad essere una persona competitiva, ma ho avuto la fortuna di non dover sfruttare la competizione per sopravvivere.

In sostanza, oggi direi che anche senza una volontà precisa di qualcuno è stata semplicemente la società in cui ho vissuto questi primi sessant’anni che mi ha modellato come un essere competitivo. Il momento storico, la collocazione geografica, il profilo culturale ed economico della mia famiglia. Cose su cui non avevo controllo e di cui non ero consapevole.

Questa stessa società, però, mi ha lasciato la possibilità di sviluppare degli anticorpi. Anticorpi che in buona sostanza mi hanno permesso di interrompere l’esercizio di una competenza nel momento in cui questa non era più necessaria.

Col tempo ho anche imparato che le competenze si perdono, sfumano, invecchiano. Insomma le competenze che ho appreso formalmente non hanno più tutta questa importanza, almeno in questa fase della vita. Come è normale che sia, adesso me ne interessano altre.

A me è andata tutto sommato bene; ma ai ragazzi di oggi? Cosa gli proponiamo? Quali competenze devono imparare? Qual è lo schema di fondo a cui si devono adattare?

Oggi mi pare che di competenze si parli davvero tanto, soprattutto nei discorsi di politica educativa, se possibile in connessione con “innovazione” e “futuro”.

Anche quando il modello di società (e scuola) competitiva viene formalmente rifiutato, quasi tutti sostengono l’importanza dell’acquisizione delle competenze innovative fondamentali per il futuro. La competenza non viene mai messa in discussione, a nessuna età: dalla scuola dell’infanzia all’università, fino alla formazione degli adulti e degli anziani. Da quando nasciamo a quando moriamo abbiamo davanti un imperativo categorico: “tu acquisirai competenze!”. Più dure, più morbide, STEM o sociali, ma insomma bisogna mettersi a tavola e mangiare, avidamente, come diceva Steve Jobs, per diventare qualcuno.

Ma siamo sicuri che tutto questo parlare di competenze non sia un errore madornale che produce solo competizione selvaggia?

Non sarà che organizzare tutta la formazione e (peggio) tutti i contesti di apprendimento formale come macchine che spingono tutte e tutti a primeggiare, a competere, ad avere più competenze e in un grado ancora maggiore si rivelerà prima o poi una svista a livello mondiale?

Non sarà che tutto questo ripetere il mantra delle competenze che salvano i giovani finirà per generare solo una guerra dei poveri – una guerra che si combatte sulle competenze, cioè sulle risorse cognitive invece che sulle risorse fisiche?

Attenzione: non voglio difendere le conoscenze contro le abilità, il teorico contro il pratico. Si può essere competenti a leggere poesie. Ma il punto è: dobbiamo formare Mario ad essere competente a leggere poesie meglio di Anna? Dobbiamo dire alla mamma di Mario che se riempie il suo zaino di competenze più di Anna, da grande sarà ricco e felice? Dobbiamo mettere davanti a Mario e Anna un orizzonte fatto di scuole, certificati, quadri, diplomi?

Evidentemente questo tipo di competizione è utile a qualcuno (chi? beh, chi tiene il banco, come sempre); ma è utile a chi compete, sia che vinca sia che perda? Forse alla fine no, o per lo meno non così tanto come si vorrebbe. I danni che questa guerra silenziona provoca sono piuttosto visibili, dagli abbandoni ai suicidi, passando per un meno eclatante totale disamore per ogni forma di apprendimento formale.

Dulcis in fundo: ha senso puntare oggi ad una classifica di persone in aree di competenza che domani saranno completamente dimenticate, magari perché coperte perfettamente da software più competenti di noi?

Credo di no.

D’altra parte, mi rendo conto che per il momento non si può smettere di insegnare, ovvero non si può smettere di facilitare l’apprendimento lasciando che ogni nuovo piccolo umano se la cavi da solo, perché non sopravviveremmo come specie. Per il momento, in attesa dei robot tuttofare, come comunità umane abbiamo bisogna di persone capaci di svolgere certe attività bene; e siccome la nostra vita è troppo complessa, non possiamo immaginare che tutti siano in grado di far tutto ed essere così autosufficienti. Quindi non possiamo rinunciare alle competenze. Ma forse possiamo limitare questo modello ultra-competitivo che ne costituisce lo sfondo.

Come?

Vedo due possibili soluzioni.

La prima è legata alla maniera in cui si definisce “competenza”.

Competenza non significa solo sapere quali risorse vanno impiegate in un certo contesto e quando vanno impiegate, ma anche per quanto, fino a quando. Dentro la definizione di una competenza dovrebbe esserci il suo limite applicativo. Non si dovrebbe dimenticare di dotare ogni competenza delle sue condizioni di applicabilità, che comprendono quelle di interruzione. Ad esempio: quando si gioca a pallone, se si superano i cinque goal di scarto si interrompe la partita. Dico che andrebbe definita (e non semplicemente scoperta) perché così entrerebbe a far parte dei processi di apprendimento e insegnamento della competenza stessa, fin dall’inizio. Si dovrebbe insegnare che nessuna competenza è assolutamente positiva per sé stessa e nessuna competenza può essere esercitata all’infinito. Rovesciando quello che diceva Kant: le competenze devono essere mezzi, non fini.

La seconda soluzione è legata ad una possibile distinzione fra competenze.

Vorrei provare a distinguere tra competenze competitive e competenze non competitive.

Le prime sono quelle che troviamo in ogni discorso: come fine della formazione, come risultato dell’apprendimento, come premessa di una performance. Come richieste dalla società, dal Paese, dal continente. Certo, da questa società, da questo Paese e da questo continente. Quando si dice che “l’Europa deve diventare l’economia basata sulla conoscenza più competitiva del pianeta” si sta appunto parlando di competenza competitiva. Non è importante di cosa è fatta esattamente questa competenza, ma solo che se ne abbia più degli altri. Competenza come moneta.

Le seconde sono quelle che non si definiscono in rapporto a quelle degli altri. Sono quelle che producono la soddisfazione di saper fare bene una cosa, non quella di farla meglio di qualcun altro. Sono competente quando riesco a fare esattamente quello che voglio, a completare il disegno, a far star su la costruzione, a cadere in terra con elasticità per poi rialzarmi senza traumi. C’è un aspetto temporale: immaginare e poi aver conferma. C’è un aspetto valoriale: il mondo dopo l’esercizio della competenza è un po’ meno confuso.

Per esempio, improvvisare.

E’ una competenza un po’ particolare, lo riconosco: non è tra le prime che verrebbero in mente. Intanto è tra quelle meno insegnabili. Certo esistono metodi, lezioni, regole, trucchi: ma sono del tutto empirici. Basta riflettere un po’ per riconoscere che la capacità di generare musica sempre nuova a partire da uno schema noto è difficilmente riconducibile ad uno schema. Verrebbe da dire che improvvisare è uscire dagli schemi, e che uno schema per uscire dagli schemi sembra un po’ paradossale.

Ma forse improvvisare non è una competenza così particolare. Se si potessero combinare in maniera meccanica il riconoscimento delle caratteristiche di una situazione con la capacità di eseguire azioni non ci sarebbe bisogno degli umani, e nemmeno dell’intelligenza artificiale, per esibire comportamenti competenti. Ogni competenza richiede improvvisazione, se non altro nello scegliere la risorsa più adatta e cambiare rapidamente strada quando quella si rivela inadatta. Nel caso dell’improvvisazione, ci sono tutti gli elementi canonici: le risorse, le abilità, il riconoscimento della situazione e l’applicazione della soluzione migliore. Tutto questo accade velocemente, con un continuo cambiamento di strada, con l’impossibilità di fermarsi per correggersi. Incidentalmente, o forse no, il risultato percepibile produce piacere nel pubblico.

Per me, però, improvvisare è un ottimo esempio di quel particolare tipo di competenza “non competitiva” perché lo faccio ma in maniera assolutamente privata. Se improvviso al piano (digitale) lo faccio con le cuffie, oppure aspetto che non ci sia nessuno in casa. Non sono troppo interessato a sapere se improvviso bene o male, meglio di Keith Jarrett o di Bill Evans. Tuttavia, in quei rari momenti, sperimento la soddisfazione di “fare esattamente quello che voglio”, con le dita che vanno dove dovrebbero andare per risolvere la situazione sospesa creata un attimo prima.

Forse si potrebbe provare a distinguere due versioni della stessa competenza, un po’ come le molecole destrogire e levogire hanno gli stessi atomi, gli stessi legami, eppure si comportano in maniera diversa. Suonare il piano per sé stessi e suonare per un pubblico. Ma non è solo una questione di grado, anzi. La competenza di scrivere software nel linguaggio di programmazione Scala può essere qualcosa che mi permette di realizzare i programmi che mi interessano; oppure ciò che mi permette di ottenere un lavoro al posto di un altro programmatore che Scala lo conosce meno bene. Non è detto che la seconda sia superiore alla prima (superiore, poi, in che senso?).

Sono la stessa cosa? No. Non si ottengono allo stesso modo e non si mantengono allo stesso modo. Nel primo caso, sono un appassionato, ho scoperto Scala per caso e l’ho trovato geniale; mi sono comprato del libri e seguo i tutorial. Per gioco ho scritto un’applicazione che mi gestisce la lista della spesa. Sto valutando se partecipare al prossimo evento internazionale che si terrà a Londra.

Nel secondo caso non mi importa di Scala in sé stesso, di chi l’ha inventato (il signor Odersky), quando e perché, non mi importa che sia bello o brutto, ma solo che chi mi fa il colloquio si convinca che io faccio al caso suo. Se si sbaglia, perché ho imbrogliato sul test, è un problema suo. (Detto tra parentesi, perché ci porterebbe lontano, un’intera cultura della valutazione è basata su questo modello).

Una volta assunto, “Ciao ciao Scala, per i dubbi c’è Stack Overflow“.

Naturalmente sarebbe fortemente auspicabile che il dentista che mi cura fosse competente nel primo senso (assoluto) e non solo nel secondo (relativo). E’ il caso degli “artisti”, che malgrado il fatto che facciano un lavoro come gli altri, che vendano il loro tempo o i loro prodotti, sembrano differenziarsi dagli altri proprio perché l’esercizio delle loro competenze gli procura piacere in qualche misura indipendente dal risultato. Purtroppo non è così che viene insegnata l’arte da noi: il violino a cinque anni per essere il prossimo Mozart, non per imparare a trovare un angolo di paradiso in terra, quando serve, fino a che le dita reggono.

Eppure non è detto che sia vero l’inverso, cioè che chi si è dimostrato relativamente più competente di qualcun altro sia anche competente in assoluto. Lo sappiamo e ne ascriviamo la responsabilità ai concorsi truccati, alle raccomandazioni, alle mazzette; senza mai mettere in discussione il modello che sta sullo sfondo.

Almeno nella progettazione della formazione si potrebbero fare questi due passi.

  1. Chiarire di che tipo di competenza si sta parlando, se è per lo sviluppo della propria persona o per guadagnarsi la vita arrivando prima degli altri. Magari non è necessario insegnare il “coding” alla scuola primaria per allevare generazioni di futuri programmatori, ma si può invece farlo perché costruire un mondo e vederlo evolvere è uno dei piaceri più grandi che un essere umano possa provare.
  2. Definire i limiti delle competenze che si insegnano, cioè insegnare ad evitare di esercitare le competenze semplicemente perché si può farlo, cioè come puro esercizio di potere. Non è questione di buonismo, non si tratta solo delle competenze soft: qualunque competenza, esercitata all’infinito, distrugge invece di creare. Perché il mondo in cui la applichiamo non è infinito, è strutturato in relazioni che hanno dei limiti e che possono rompersi se insistiamo troppo nella stessa direzione. Perché ogni esercizio di competenza che non si limiti ha come effetto collaterale proprio l’elevarsi del livello di competizione di cui sopra.

Parlavo sopra del piacere di riuscire a fare qualcosa. E’ naturale, cioè lo provano tutti? Forse.

Va almeno coltivato? E’ probabile. Come? Con l’esempio.

Quando un esperto mostra il piacere che prova nel riuscire di solito ottiene per induzione un effetto di attrazione sull’apprendista. Un insegnante potrebbe senz’altro mostrare come traduce, come recupera un’informazione storica o come risolve un problema di programmazione, e mostrare tutta la soddisfazione che prova nel riuscirci. Non per esibirsi e mostrare che è più bravo degli studenti (bella forza!), ma per dimostrare che quando si arriva in cima alla montagna ci si siede e si è contenti, anche se si è arrivati ultimi.

Se questo piacere non viene nemmeno mai esibito (magari perché il sedicente esperto non si cimenta mai con la risoluzione di un problema davanti agli apprendisti) ma ci si limita a pretendere uno sforzo per raggiungere un risultato, sancito da un voto, allora la competenza che si raggiunge è solo quella relativa e mai quella assoluta.

Io però continuo a sperare che al mio dentista piaccia il lavoro che fa.

Del limite delle competenze

1. Quando penso alla competenza mi immagino una specie di deutero-abilità (l’espressione è modellata su quella di Gregory Bateson relativa all’apprendimento: imparare ad imparare), cioè l’abilità (2) di applicare un’abilità (1) in una situazione determinata. L’immagine che mi viene in mente è quella di mio zio Michele che pota le viti. L’abilità consistente nell’usare le forbici per tagliare un tralcio ce l’avevo anch’io, la conoscenza teorica che distingue i tralci che porteranno l’uva dagli altri, pure; quella che mi mancava era la competenza che permetteva a lui, con sicurezza e rapidità, di categorizzare il singolo ramo, tagliarlo in un certo punto, con una certa angolazione. Tac, tac, tac.

Un altro caso: nelle sessioni di Aikido uke (l’aikidoka che si difende) conosce le forme, è in grado di eseguire una tecnica specifica, ma deve avere la competenza per scegliere la tecnica giusta in funzione del tipo di attacco, della velocità di tori (l’attaccante), il suo peso, la posizione eccetera. Nei casi più spettacolari, come il randori, ci sono tanti tori che attaccano un solo uke, il quale non ha materialmente il tempo per pensare. Per avere un’idea, potete guardare questo video.

Un caso più comune: parlando (o scrivendo) abbiamo qualcosa da dire e scegliamo le parole adatte per dirle. Abbiamo il lessico e la grammatica, ma dobbiamo in tempo reale decidere come combinarle, sulla base di quello che dice l’altro, del tempo a disposizione, del contesto.

Insomma è una questione di categorizzazione della situazione e di selezione dell’algoritmo adatto, ma è molto legata ad un tema che sembra lontanissimo: quello dell’improvvisazione.


2. La prima vera difficoltà, perciò, non è conoscere tutte le categorie, ma riconoscere e categorizzare una situazione nuova, che in qualche modo deve assomigliare a quelle già incontrate pur essendo diversa. Questo riconoscimento si fa per singoli tratti caratteristici? Oppure si fa in maniera intuitiva, complessiva, senza bisogno di entrare nei dettagli, con una Gestalt immediata? Oppure prima in un modo e poi, un po’ alla volta, nell’altro? Non lo so.

La seconda difficoltà non è applicare la tecnica, ma scegliere tra tutte le tecniche quella più adeguata alla situazione. Significa che le tecniche stanno lì, appese al muro come dal meccanico, indicizzare per tipo e dimensioni in attesa di essere applicate? Che, come per le chiavi inglesi, le tecniche hanno una forma concava che è complementare della forma convessa delle situazioni cui vanno applicate (i dadi)? Non lo so.

C’è comunque un tema forte di temporalità limitata: la competenza si esercita in intervalli piccolissimi, non permette ragionamenti complessi ed esami completi di tutte le opzioni. Per questo penso all’improvvisazione, musicale, teatrale, poetica o quotidiana.

C’è un tema di possibilità di errore: la competenza è necessaria quando il rischio è alto, altrimenti basterebbe scegliere il primo algoritmo che si presenta alla mente, o uno a caso, o l’ultimo usato.

C’è infine un tema di consapevolezza: per dimostrare di avere davvero competenza bisognerebbe anche essere consapevoli delle scelte fatte e saperle giustificare. E’ il pozzo buio dell’AI e del machine learning: software che sono competenti ma non sanno dirci perché.


3. Proprio il caso del machine learning ci fa capire che la competenza non si può insegnare, ma solo apprendere. Si può dire che esiste, descriverla, ma non trasmetterla. Si può mostrare in atto, esercitandola in un caso concreto (il docente di matematica che risolve un vero problema, il software che guida la macchina o traduce dal cinese), ma solo per convincere, per dimostrare che è possibile.

Purtroppo in generale nei contesti di insegnamento tradizionale (più teorico che corporeo, come nei tre esempi che ho fatto sopra) questo argomento non viene affrontato in maniera diretta. E’ raro che un docente si esponga, mostri i suoi processi interni mentre cerca la soluzione, accetti di far vedere gli errori e ripensamenti. Non solo: i docenti sono consapevoli di questa enorme difficoltà che attende gli studenti una volta superato il problema di imparare a memorie le categorie e esercitarsi nelle abilità, ma non sanno bene come aiutarli. In qualche modo ci si augura che la competenza venga fuori da sé, con l’esperienza, con il tempo. Se poi non succede, non c’è più tempo per intervenire o si preferisce pensare che il problema sia a monte (“ripassate il teorema di Taluno e Talaltro… fate altri diciassei esercizi”).


4. Ma se è così difficile, concretamente, allora perché tutto questo parlare di competenze (tanto in forma negativa che in forma positiva)? Perché disegnare la formazione come un viaggio verso l’acquisizione di sempre più competenze (e non, poniamo, come una riflessione su quelle che si sono sviluppate e sul loro utilizzo)?
La società della formazione continua è la società che spinge all’acquisizione delle competenze. Perché? Perché cittadini competenti fanno una società competitiva. Cittadini sempre più competenti sono concentrati sull’essere migliori degli altri, non sulla qualità della loro vita e di quelli degli altri. Le dichiarazioni pubbliche dei governi e delle istituzioni anche sovranazionali non fanno che ribadire questo orizzonte: si è competenti contro qualcuno, sopra qualcuno.

5. C’è allora un livello ancora più alto, a mio avviso, del “mastery”: è il livello in cui l’esperto decide di non applicare la competenza anche quando sarebbe possibile. Perché la competenza nasconde un grande rischio: quello del potere. Se so che posso applicare un’abilità, lo faccio, e così dimostro la mia competenza, vengo riconosciuto, acquisto credito e insomma potere. la prima volta magari solo per il gusto di vedere se davvero sono capace, la seconda per mostrarlo agli altri di cui mi importa il giudizio, poi anche se nessuno mi guarda, solo perché è piacevole sentirsi competenti, grandi e forti.

Bisogna imparare a fermarsi, ad applicare l’abilità solo nei limiti del necessario.

Sembra un tema etico (come se fosse una cosa negativa…), ma è anche qualcosa di più. Ha a che fare con l’ecologia, col consumo non necessario di risorse che sono limitate. Ha a che fare con la politica, con la responsabilità del benessere della comunità, non solo di sé stessi. Ma anche da un punto di vista puramente pedagogico, imparare ad applicare un algoritmo richiede di imparare a limitarne la sua applicazione, nel tempo e nello spazio. Usare lo stesso algoritmo in maniera coatta, ripetuta, significa quasi sicuramente sbagliare; allo stesso modo, ad un livello più alto, spendere la propria competenza oltre la necessità significa smettere di interrogarsi sulle categorie, sulle abilità, fermarsi nel processo di apprendimento e, inevitabilmente, avviarsi verso fallimenti futuri.

Invece sembra che questa scuola spinga verso la competenza in assoluto: più competenza, più competenze, ancora di più. L’obiettivo all’orizzonte è una società composta solo da persone competenti in ogni area, che pensano di saper far bene tutto ma vengono spinte ad essere ancora più competenti.

Solo io in questo mito ottimista vedo tante ombre?

Piano Scuola 4.0: gli ambienti digitali entrano nella scuola italiana. Forse.

1. Ambienti di apprendimento

Il tema degli ambienti digitali di apprendimento non è nuovo: se ne parlava almeno a partire dalla fine degli anni ’90 nel mondo della ricerca. Personalmente ho addirittura scritto un libro con questo titolo.1 Poi è tornato sotto i riflettori a causa della pandemia, con un significato negativo, limitato, oppositivo: ambienti per la didattica a distanza, cioè distante; per l’insegnamento remoto, cioè distaccato; per l’apprendimento solitario, cioè senza relazioni. Ma è riemerso con un significato positivo nel recente Piano Scuola 4.0,2 in uno dei due macro capitoli che fanno parte della voce di investimento 3.2 “Scuola 4.0 – Scuole innovative, nuove aule didattiche e laboratori”, in particolare quello che si chiama “Next Generation Classrooms”. Come molti sapranno, Next Generation EU è il nome complessivo delle azioni europee per il rilancio dell’economia post pandemia. In pratica, il PNRR.

E’ forse la prima volta che in un documento ufficiale del Ministero si fa riferimento esplicitamente agli ambienti digitali. Per capire la rilevanza: nell’OM 172/2020, che è solo di un anno e mezzo precedente, si faceva riferimento agli ambienti di apprendimento sempre e solo dal punto di vista fisico. Non solo: nel paragrafo corrispondente del documento generale sul PNRR3 si dice solamente che

“La misura mira alla trasformazione degli spazi scolastici affinché diventino connected learning environments adattabili, flessibili e digitali, con laboratori tecnologicamente avanzati e un processo di apprendimento orientato al lavoro.” (pag 190)

in cui la parola chiave è connected, che fa riferimento semplicemente al cablaggio delle aule e all’introduzione di dispositivi fisici. In effetti vederemo che c’è un certo slittamento di significati di “digitale”: da cablato a intelligente passando per innovativo.

Nella parte iniziale del documento che descrive il Piano 4.0 (il capitolo è intitolato “Background”) si ricostruisce la storia recente delle tecnologie digitali nella scuola italiana e si forniscono alcuni numeri. Si citano, nella preistoria, le LIM, le classi 2.0, il wifi. Poi si passa alla “transizione digitale” avviata dal PNSD di cui il Piano Scuola 4.0 dovrebbe essere il completamento. Si passano in rassegna i Quadri delle competenze e i Piani europei e si mettono in relazione con le azioni previste nel quadro del PNRR.

La sezione su cui ci vogliamo concentrare è però la 2 (Next Generation Classrooms) che prevede la trasformazione di 100.000 aule in ambienti innovativi di apprendimento.

2. Riferimenti internazionali

I riferimenti ufficiali principali – e questa è una buona notizia – non sono soltanto ordinanze e decreti nazionali o piani europei, ma due documenti internazionali dedicati proprio agli ambienti di apprendimento digitali. Vale la pena di andarli a leggere.

2.1 Il primo documento, del 2017, è dell’OCSE (The OECD handbook for innovative learning environments, OECD Publishing, Paris).4 Nel documento (una revisione di un precedente manuale OCSE del 2013) vengono descritti gli Innovative Learning Environments, a partire da 7 principi base, passando poi per gli strumenti, la valutazione eccetera.

Nel Piano Scuola 4.0 viene riportata la traduzione italiana, a cura del Ministero, proprio di questi 7 principi; curiosamente però il titolo è diventato “I 7 principi dell’apprendimento” mentre ad evidenza si tratta di principi per la progettazione di ambienti di apprendimento. I principi sono, a mio parere, altamente condivisibili: mettere al centro i discenti, in forma cooperativa, tenendo conto delle emozioni e delle differenze. C’è una forte sottolineatura della valutazione formativa e sul feedback agli studenti e addirittura vengono auspicate delle connessioni non solo tra aree disciplinari ma tra l’ambiente e il resto del mondo.

Nel manuale OCSE non si parla molto di tecnologie digitali, se non per dire che sono abilitanti per tutte quelle innovazioni degli apprendenti, dei formatori, dei contenuti e delle risorse (che sono i quattro cardini del framework OCSE). Tuttavia si avverte il lettore che

la semplice presenza della tecnologia non è sufficiente, di per sé, ad innovare gli ambienti di apprendimento. Né l’innovazione dovrebbe essere assunta come sinonimo di “passare al digitale”, perché questo potrebbe essere fatto riproducendo metodi e pedagogie tradizionali con un diverso formato (pag. 46, trad. nostra)

Tornando al Piano, subito dopo i principi vengono riportati altri concetti ripresi dal manuale OCSE: la scuola come organizzazione formativa gestita da una leadership e sostenuta da innovazioni, in collaborazione con istituzioni pubbliche e private. Qui si sente chiaramente un “profumo” di scuola-azienda che non piacerà a tutti. Per la verità questo profumo diventa più forte quando si parla della seconda azione, Next Generation Labs, che punta alla formazione alle competenze digitali specialistiche a partire dalla scuola secondaria di secondo grado.

2.2 Anche nel secondo documento internazionale citato si parla di leadership. Si tratta di un rapporto dell’International Bureau of Education dell’UNESCO (In pursuit of smart learning environments for the 21st century, UNESCO International Bureau of Education, Bangkok).5 Anche questo documento è del 2017 ed è dedicato stavolta agli ambienti di apprendimento intelligenti (nell’originale, “smart”). Lo slittamento da innovativo a intelligente è significativo: sembrano aggettivi simili, che nel discorso mediatico sono quasi sinonimi, o al massimo occupano posizioni diverse in una stessa scala: l’intelligenza è il punto di arrivo dell’innovazione. I telefoni tradizionali sono stati sostituiti da telefoni “smart”; le nuove città connesse e dotate di servizi in tempo reale basati sui dati diventano “smart cities”, eccetera.

Se ci si pensa un attimo, invece, sono cose piuttosto diverse. L’innovazione non punta necessariamente all’intelligenza, ma può andare verso la riduzione degli sprechi o verso la costruzione di un futuro sostenibile. Reciprocamente, l’intelligenza di un artefatto non è necessariamente il punto di arrivo dell’innovazione, soprattutto quando intelligenza non è sinonimo di efficacia ed efficienza ma solo di gestione totalmente automatizzata.

In effetti, per chi si prenda la briga di leggere il documento dell’UNESCO, si scopre che la definizione di Smart Learning Environment è la seguente:

“Un ambiente di apprendimento intelligente è un sistema adattivo che mette l’apprendente in primo piano; migliora le esperienze di apprendimento basandosi su “tratti di apprendimento, preferenze e progresso; presenta gradi di impegno crescenti, accesso alla conoscenza, feedback e orientamento; usa media complessi con un accesso trasparente ad informazioni pertinenti, tutoraggio in tempo reale e nella vita reale, con uso massiccio di IA, reti neurali e tecnologie smart per arricchire continuamente l’ambiente di apprendimento.”

Il testo procede fornendo varie definizioni di ricercatori che si sono occupati di questo tema negli anni passati. Lo schema che appare è quello di una piattaforma che gestisce il processo di apprendimento tramite moduli che individuano lo studente (anche nello spazio, tramite sensori), ne valutano le performance, assegnano dei task, aggiustano i contenuti personalizzandoli, il tutto basandosi su un “motore inferenziale”, termine che andava di moda qualche anno fa per indicare un software che prende decisioni basandosi su fatti e regole.

Non tutti, forse, gradiranno questo schema, che richiama alla mente il sistema Plato degli anni ’50 o gli Intelligent Tutoring System degli anni ’80; solo che oggi, con la dimostrazione di quello che può realmente fare un software IA addestrato con i dati di milioni di persone e che usa un modello opaco (non più fatti e regole) lo scenario che si prospetta è più preoccupante. In ogni caso, non assomiglia molto agli “ambienti” di cui si parla nel resto del Piano: non si parla qui di uno spazio, ma di un attore autonomo che pianifica e gestisce automaticamente le attività degli studenti. Non c’è traccia del ruolo del docente umano, ma solo del leader (il dirigente? il responsabile della formazione?).

L’IA è però un leit motiv di tutto il Piano. L’espressione compare ben 8 volte nel testo, insieme a robotica, cybersicurezza, big data e calcolo quantistico (?). IA come contenuto (ad esempio, “[…] strutturare percorsi didattici sull’apprendimento dell’intelligenza artificiale e sul suo uso etico o sulla cybersicurezza all’interno del curricolo di istituto“) ma anche IA come strumento di gestione dell’istruzione, secondo quanto previsto da una della Azioni che fanno parte della Priorità Strategica 1 (“Promuovere lo sviluppo di un ecosistema altamente efficiente di istruzione digitale”) del Piano Europeo di Azione per l’educazione digitale 2021-2027, che viene citata nel Piano Scuola 4.0 tra i riferimenti fondamentali. Questa attenzione per l’IA andrebbe letta nel quadro generale dell’interesse a livello europeo per le questioni etiche che nascono dall’applicazione massiccia dell’Intelligenza Artificiale, in una specie di spartizione del mercato globale con i Paesi dell’Est: a loro la tecnologia, a noi la riflessione filosofica.

Ma tornando a lidi più miti, poco più sotto si descrive genericamente il potenziale delle tecnologie (digitali, ça va sans dire) più tradizionali:

“Le tecnologie consentono di poter (sic) accrescere la cooperazione e le relazioni fra studenti, fra docenti e fra studenti e docenti, di personalizzare e rendere flessibili le modalità di apprendimento, di gestire una gamma ampia di fonti, dati e informazioni on line, di acquisire competenze orientate al futuro, fondamentali per la cittadinanza e il lavoro, di attivare strumenti di verifica e di feedback degli apprendimenti avanzati, di rafforzare i rapporti con le famiglie e i partenariati a livello locale e globale.” (pag. 15).

In effetti l’introduzione delle tecnologie digitali a scuola (per curiosa che possa sembrare oggi questa espressione, che sembra dimenticare che le tecnologie digitali a scuola ci sono già: le portano tutti i giorni i ragazzi) è stata spesso giustificata per differenza tra scuola e società: siccome queste tecnologie esistono fuori dalla scuola, e siccome gli studenti un giorno dovranno usarle, allora meglio impararle subito. E’ la giustificazione che ha accompagnato l’introduzione dell’ora di coding: in Italia mancano gli informatici, e mancheranno sempre di più, quindi bisogna cominciare a preparare i programmatori di domani fin da piccoli (“acquisire competenze orientate al futuro, fondamentali per la cittadinanza e il lavoro”). Purtroppo la velocità di mutazione delle tecnologie digitali è tale da rendere questo processo – ammesso che l’analisi sul mercato del lavoro di domani sia corretta – senza speranza, in una rincorsa che ricorda quella di Achille e la tartaruga. Tra il momento in cui un bambino apprende un linguaggio di programmazione e il momento in cui dovrebbe usarlo professionalmente passano (almeno) dieci anni. Ma i linguaggi di programmazione più promettenti oggi (Go e Rust, per fare due esempi) dieci anni fa non erano ancora nati o stavano emettendo i primi vagiti.

La giustificazione presente nel Piano è una variante di quella classica: siccome le tecnologie digitali ci sono, là fuori, tanto vale usarle subito anche dentro la scuola. Qui non si dice che i ragazzi devono essere formati all’uso delle tecnologie digitali, evidentemente perché si è preso atto del fatto che le usano già. Perché però devono essere introdotte proprio le tecnologie digitali e non, poniamo, la falegnameria o l’agricoltura? Anche queste tecnologie esistono e vengono usate fuori dalla scuola. Beh, si dirà, ma quelle non sono tecnologie abilitanti, non servono a potenziare l’apprendimento, che dovrebbe essere il fine della scuola. Eppure il legame delle tecnologie digitali con un possibile miglioramento dell’apprendimento è affidato nel testo ad un’unica frase: “personalizzare e rendere flessibili le modalità di apprendimento”, che non è proprio chiarissima ma probabilmente fa riferimento all’uso di media e canali diversi. Il grosso della motivazione dell’introduzione delle tecnologie digitali, almeno in questo paragrafo, è tutta nell’ordine della quantità. Si parla di accrescere, rafforzare, gestire grandi moli di dati. Le tecnologie digitali sono viste soprattutto come moltiplicatori, connettori di persone e servizi, non come modificatori.

Non si dice, per la verità, che non se ne possano fare usi più specifici, più significativi per la scuola. Per esperienza personale, però, posso dire che il fatto che una tecnologia renda possibile un certo uso non dice nulla sul fatto che quell’uso venga realmente effettuato. Ci vuole una spinta maggiore della semplice disponibilità: deve esserci la chiara percezione di un bisogno, o di un miglioramento possibile, che deve riguardare le persone coinvolte nel contesto immediato, non un futuro probabile e lontano. Questo è stato il motore che ha spinto migliaia di docenti ad affrontare la DaD con più energia e determinazione di tanti corsi di aggiornamento professionale. Con risultati non ottimali, certo, ma sicuramente molto superiori alle attese.

3. Ambienti digitali

Quindi si passa finalmente agli ambienti digitali:

“Gli ambienti fisici di apprendimento non possono essere oggi progettati senza tener conto anche degli ambienti digitali (ambienti on line tramite piattaforme cloud di e-learning e ambienti immersivi in realtà virtuale) per configurare nuove dimensioni di apprendimento ibrido. L’utilizzo del metaverso in ambito educativo costituisce un recente campo di esplorazione, l’eduverso, che offre la possibilità di ottenere nuovi “spazi” di comunicazione sociale, maggiore libertà di creare e condividere, offerta di nuove esperienze didattiche immersive attraverso la virtualizzazione, creando un continuum educativo e scolastico fra lo spazio fisico e lo spazio virtuale per l’apprendimento, ovvero un ambiente di apprendimento onlife”. (pag. 15)

Il lessico è forse un po’ troppo legato alle parole del momento (metaverso, eduverso, onlife) e chissà se resterà comprensibile tra qualche anno. Ma attenzione alla prima frase: gli ambienti fisici non possono essere progettati senza tener conto si quelli digitali. Questa è veramente una rivoluzione copernicana: gli ambienti digitali diventano parte necessaria, non facoltativa o opzionale, da tirar fuori nelle emergenze. Occorre naturalmente vedere come questa ibridazione si declina: si tratta solo di sapere dove collocare una LIM oppure di immaginare un ambiente di apprendimento dove oggetti e rapporti fisici possano dare origine a oggetti e rapporti digitali che a loro volta permettono di capire meglio i primi? Un esempio banale: una webcam con lenti addizionali montata su un cavalletto riprende il movimento di un insetto e manda il flusso di immagini ad un software che le elabora per creare un grafico nel tempo dei suoi movimenti.

Non mi soffermo sulle successive descrizioni degli interventi relativi alle dotazioni hardware e all’infrastruttura di rete; è curioso però che vengano descritti dei dispositivi legati ad attività concrete, come se queste attività fossero cablate nei dispositivi stessi:

“Le nuove classi, oltre ad avere uno schermo digitale, dispositivi per la fruizione delle lezioni che vi si possono svolgere anche in videoconferenza e dispositivi digitali individuali o di gruppo (notebook, tablet, etc.), dovranno avere a disposizione, anche in rete fra più aule, dispositivi per la comunicazione digitale, per la promozione della scrittura e della lettura con le tecnologie digitali, per lo studio delle STEM, per la creatività digitale, per l’apprendimento del pensiero computazionale, dell’intelligenza artificiale e della robotica, per la fruizione di contenuti attraverso la realtà virtuale e aumentata.”

Che cos’è un dispositivo per la promozione della scrittura e della lettura? Forse un computer fisso con uno schermo grande, una tastiera e un mouse, a differenza di tablet e notebook? In una visionaria immagine di inizio secolo il mio gruppo di lavoro aveva immaginato una “ambiente di apprendimento integrato”, cioè una stanza in cui erano collocati dei dispositivi fisici che non erano semplicemente computer, ma attrezzi digitali specializzati: un tavolo per disegnare mappe interattive, un leggio dove scrivere e leggere testi con l’aiuto di vocabolari (trovate l’immagine in testa a questo articolo), un piano per progettare esposizioni. Queste macchine colorate non sono mai state costruite fisicamente, ma erano delle metafore, degli oggetti fantastici che corrispondevano a dei software educativi che invece avevamo realizzato davvero. Ecco, quelli avrebbero potuto essere “dispositivi per la promozione” di attività cognitive complesse. Purtroppo i dispositivi digitali che si possono trovare nelle scuole primarie oggi sono al massimo stampanti 3D e robottini più o meno evoluti.

Il passo successivo introduce più chiaramente i software intesi come servizi fruibili tramite rete e residenti altrove:

“Per il miglior utilizzo didattico dei dispositivi è opportuno che la scuola organizzi anche un proprio catalogo di risorse digitali di base, software e contenuti disciplinari o interdisciplinari, disponibili anche sul cloud.”

E’ francamente sorprendente che, con un salto indietro nel tempo, si parli di cataloghi locali, anziché di cataloghi condivisi. Dopo interi progetti gestiti dalla BDP/ANSAS/INDIRE dedicati alla creazione di archivi di risorse controllate, verificate, standardizzate, pubblici e utilizzabili da tutte le scuole, si torna al catalogo della scuola. Non aiuta la precisazione “disponibili anche su cloud” che anzi ratifica un equivoco ahimè diffuso quasi ovunque: cloud non significa internet. Se una scuola mette i suoi file o i suoi software su un server, fisico o virtuale, non sta affatto usando il cloud. Cloud significa la distribuzione di servizi e risorse su più server, collocati fisicamente in luoghi diversi, secondo una logica che privilegia l’efficienza e il risparmio del fornitore, ma che è del tutto trasparente per l’utente finale. Tra l’altro con i noti problemi di collocazione di file e dati anche personali al di fuori dalla giurisdizione europea, in violazione del GDPR.

In generale, non è chiaro se l’ambiente deve essere arredato (se non addirittura progettato e realizzato) da ogni scuola sulla base delle proprie competenze ed esperienze, o facendo ricorso a professionisti esterni scelti localmente, o se verranno proposte delle Linee Guida che indicano come scegliere software e risorse: con quale validazione, quale licenza, quali formati, quali garanzie di accessibilità, eccetera.

Un paragrafo che potrebbe essere significativo (soprattutto se incrociato con l’OM 172) è quello relativo all’uso delle tecnologie digitali per la valutazione:

Allo stesso tempo gli ambienti innovativi e le tecnologie possono rappresentare una importante occasione di cambiamento dei metodi e delle tecniche di valutazione degli apprendimenti in chiave formativa e motivazionale, grazie al contributo offerto dalle tecnologie digitali che consentono di avere feedback in itinere per monitorare e migliorare sia il processo di apprendimento dello studente che di insegnamento da parte del docente.” (p.18)

Qui, per una volta, non si parla di quiz e app, ma proprio di raccolta continua di dati finalizzati non alla valutazione delle abilità e delle conoscenze apprese, ma del processo, da entrambe le parti. Il testo sembra quasi una citazione di quanto suggerito nell’area “Assessment” del DigCompEdu ovvero dell’European Framework for the Digital Competence of Education del 20176

Infine si passa all’aspetto più interessante dal mio punto di vista: l’integrazione tra ambiente fisico e digitale. Dico che è il più interessante perché compie un salto epocale: siamo finalmente usciti dal mantra della DaD che serve solo per superare l’emergenza in cui “la scuola è chiusa”. Qui si dice che anche quando la scuola (quella fisica) è aperta si possono usare ambienti di apprendimento digitali, ad integrazione di quelli fisici.

Non più il digitale per superare la distanza, ma il digitale per trasformare, creare, condividere all’interno delle prassi quotidiane. Non si tratterà più di simulare la lezione in presenza (o la valutazione in presenza) ma di inventare un modo diverso di apprendere e insegnare arricchito da strumenti con i quali si può andare oltre la trasmissione di conoscenze. Certo occorrerà cercarli, questi strumenti (trascurando per l’appunto videoconferenze e quiz online), occorrerà imparare a usarli, soprattutto farsi venire in mente modi di usarli. E’ persino possibile che si debbano creare strumenti nuovi: non ci sarebbe niente di male, i software vengono scritti da persone, non si trovano sugli alberi. Un ministero, un’università, ma anche una rete di scuole o persino una scuola, può decidere di raccogliere bisogni e idee e provare a realizzare del software educativo, possibilmente opensource, come hanno fatto insegnanti di buona volontà per tanti anni.

“L’ambiente fisico di apprendimento dell’aula dovrà essere progettato e realizzato in modo integrato con l’ambiente digitale di apprendimento, affinché la classe trasformata abbia anche la disponibilità di una piattaforma di apprendimento, che può spaziare da una semplice piattaforma di e-learning a una piattaforma di realtà virtuale che riproduce l’ambiente fisico della classe.” (pag. 17).

Il concetto è affermato, anche se non si capisce esattamente a cosa serva una piattaforma di realtà virtuale che non riproduce, che so, una galassia o l’interno di una cellula, ma la stessa aula dove ci si trova. Probabilmente si pensa ancora allo studente che sta a casa o in ospedale mentre i compagni sono in aula; ma non è questo, a mio parere, lo scopo principale della realtà virtuale. Se non fosse altro che una ripetizione della realtà fisica accessibile da un altro luogo sarebbe una bella comodità, ma non avrebbe niente di educativo.

Il capitolo si conclude con l’elenco dei vantaggi delle Next generation classroom (apprendimento attivo e collaborativo, motivazione, benessere, inclusione e personalizzazione) mescolati però a metodologie “innovative”, come il peer learning, il problem solving, etc. Il risultato finale sarà il consolidamento delle abilità (sic) cognitive e metacognitive, sociali ed emotive, pratiche e fisiche.

4. Piattaforme?

Naturalmente oltre alle azioni sull’hardware e il software il Piano prevede azioni formative dirette a docenti, animatori digitali e dirigenti. Si stanno aprendo (giugno 2022) le iscrizioni ai corsi online gestiti da poli territoriali. I temi sono moltissimi; però non è chiaro, o per lo meno io non ho saputo capirlo, su quali piattaforme questi corsi verranno ospitate.

A questo punto può sorgere la domanda più generale: ma cosa sono queste piattaforme di e-learning e questi ambienti di realtà virtuale che vengono citati? Come devono essere fatti, e da chi? chi li ospita e con quali garanzie (ricordiamo che si sta parlando di minori)? Sono le stesse piattaforme utilizzate attualmente nella grande maggioranza delle scuole italiane per uscire dal baratro del confinamento? Sono altre, selezionate dal Ministero con gli stessi criteri utilizzati all’inizio della pandemia? Dovranno essere ospitate sulle macchine delle scuole o, più verosimilmente, su “cloud”? E in questo caso, dovranno essere gratuite oppure pagate con i fondi dell’Azione stessa?

Probabilmente molti dirigenti e docenti avranno in mente una risposta chiara: sì, certo, dovranno essere le piattaforme in uso, che i docenti e gli studenti già conoscono, e che essendo proposte da grandi soggetti ICT sono stabili, sicure, robuste. Perché cambiare?

Qualche dirigente potrà obiettare – avendo fatto la prova – che esistono alternative, cioè software il cui codice sorgente è aperto (il che significa che si sa esattamente cosa fa con i dati che acquisisce), ospitate da Internet Service Provider in Italia, che sono state progettate come ambienti di apprendimento e utilizzate per questo scopo da anni e anni.

Per essere chiari: le “piattaforme” più diffuse oggi nella scuola italiana non sono ambienti di apprendimento digitali. O meglio, sono certamente luoghi dove può verificarsi un apprendimento (come un videogioco, un social network), come effetto collaterale. Ma mancano tutti gli elementi che li costituirebbero come ambienti di apprendimento:

  • non sono pensati per lo studente, sono pensati per il lavoratore. Questo si vede ancora, in qualche caso, dal lessico e dall’organizzazione delle funzionalità;
  • non sono modificabili dallo studente, ma solo dall’amministratore
  • non sono costruite sul modo di funzionare della scuola italiana, ma al massimo mimano quella di cultura statunitense
  • sono rigide e non sono progettati per cedere il controllo allo studente

Quest’ultimo punto può sorprendere ma a mio avviso è il più importante: un ambiente non è educativo perché ha i contenuti giusti, ma perché è progettato dall’inizio per consentire al soggetto che apprende di impadronirsene un po’ alla volta, al momento giusto, con i suoi tempi. Più il soggetto si appropria dell’ambiente, più l’ambiente gli cede il controllo. E’ la differenza tra un ambiente qualsiasi (una fabbrica, un ospedale, una prigione, come si diverte a chiusare Gert Biesta in un recente scritto) dove l’apprendimento è possibile e un ambiente progettato per l’apprendimento.

Il fatto che i soggetti fornitori di questi servizi non siano specializzati nel dominio educativo dovrebbe far riflettere. Chi ha seguito le evoluzioni di Workspace e di Teams si ricorda che sono nati come strumenti per la collaborazione professionale, tra lavoratori che appartengono allo stesso team. Esattamente come le LIM, nate come supporto per le riunioni sono diventate strumenti didattici senza cambiare molto della loro struttura e funzionalità.

Non aiuta la discussione, purtroppo, la contrapposizione di queste “piattaforme private” con la mitica piattaforma pubblica del GARR. Per chi non lo conoscesse, il GARR è un consorzio italiano di università ed enti di ricerca costituito trent’anni fa per fornire connettività (in fibra ottica) ad istituzioni pubbliche come ospedali, musei, scuole. In occasione della pandemia – al pari di altri soggetti, pubblici e privati – ha messo a disposizione una certa quantità di risorse hardware e di software (in particolare, un’installazione di Jitsi, software opensource per la videoconferenza).

Oltre alla connettività, GARR fornisce servizi di streaming, di cloud, di storage, ma solo agli enti che fanno parte del consorzio. Alla proposta di estendere questa offerta alle scuole, cioè di fungere da fornitore di servizi di hosting, uno dei responsabili ha riposto abbastanza chiaramente che non dispone né del personale né delle risorse informatiche adeguate, e forse nemmeno dell’interesse. In ogni caso, il GARR non ha mai avuto niente di paragonabile a Google Workspace o a Microsoft Teams. E, una volta per tutte, un ambiente di apprendimento non è un sistema per la videoconferenza.

Il punto importante, a mio avviso, non è la distinzione tra pubblico e privato né la gratuità dei servizi offerti tramite la piattaforma. Dovrebbe essere invece immaginata una collaborazione trasversale tra pubblico e privato, profit e non profit, basato sul riconoscimento dei legittimi interessi, che devono essere trasparenti e regolati. Si dovrebbe puntare a costruire un ecosistema sostenibile di piattaforme diverse basato su linee guida, un registro pubblico e dei protocolli aperti per lo scambio di dati.7

Sulla idea stessa di fornire una piattaforma unica a tutte le scuole, centralizzata, ho già scritto che mi pare una follia: tecnicamente, è una strada che è stata giù percorsa in maniera fallimentare in passato. Ma c’è da interrogarsi anche sul senso di un’operazione del genere: perché mai un’unica piattaforma dovrebbe soddisfare tutte le esigenze di scuole di ordine e grado diversi? Gli esempi citati (la Francia su tutti) non sembrano deporre particolarmente a favore di questo tipo di soluzione unica: diventano presto obsoleti, richiedono un accesso macchinoso, soffrono di inevitabili problemi di sovraccarico.

Infine, dal punto di vista della sostenibilità economica del Paese: se oggi ci sono – o almeno potrebbero esserci – imprese italiane che fanno della proposta di servizi legati alla videoconferenza o agli ambienti di e-learning il loro core business, perché forzarli a chiudere con una concorrenza sleale come quella di una piattaforma di Stato? Già la loro sopravvivenza è messa in discussione dalla proposta più o meno gratuita di servizi da parte dei grandi soggetti di cui abbiamo parlato sopra (Google e Microsoft, per i più smemorati): serve che ci si metta anche lo Stato?

Non sarebbe più corretto fissare degli standard, dei protocolli di scambio dati, delle misure di sicurezza, dei criteri di scelta, e poi invitare le scuole ad aggregarsi e a richiedere dei servizi adeguati ai loro bisogni? O addirittura a creare soggetti in grado di fornire questi servizi, stimolando gli studenti in uscita dagli istituti tecnici o dalle università a costituire delle cooperative di servizi territoriali?

5. Conclusioni

Non si tratta di conclusioni sul Piano, naturalmente, ma solo sulla visione di “ambiente di apprendimento digitale” che sembra contenere.

Da un lato, va salutato – a mio avviso – positivamente il fatto che non si parli solo di aule, laboratori e palestre. Ambiente non significa più solo uno spazio fisico tridimensionale limitato da pavimento, mura, finestre e soffitto. Questo significa moltissimo: che “stare” non vuole dire solo essere con il corpo in un luogo; che “identità” non significa solo corpo fisico; che “relazione” non significa solo vicinanza tra corpi fisici; che “comunicazione” non significa solo scambio di suoni; eccetera.

Dall’altro si fa sempre più chiara la consapevolezza che ambiente di apprendimento possa anche significare una cosa diversa da quello spazio ideale aperto, collaborativo, dove studenti e docenti possono scambiarsi risorse e pratiche: un’idea di “piattaforma” come quella che abbiamo visto di recente incarnata in Google Workspace e in Microsoft Teams, per citare i due esempi più noti, o forse il metaverso di Meta, magari con dietro un IA che decide cosa e quando insegnare. Una piattaforma fornita come servizio, sparsa nel cloud, da grandi e grandissimi soggetti dell’industria digitale.

Occorre essere attenti, chiedere chiarimenti, stimolare e partecipare ad un dibattito, pretendere un alto grado di trasparenza sulle scelte e non aspettare che si arrivi con le soluzioni pronte e, ahimè, non più modificabili.

Note

1 Penge S., Terraschi M., Ambienti digitali per l’apprendimento. Anicia, 2004.

2 Il documento alla data attuale non sembra reperibile né sul sito del MIUR né su quello di ScuolaFutura (https://scuolafutura.pubblica.istruzione.it/) né su quello di Italia Domani (https://italiadomani.gov.it/it/)

3 https://italiadomani.gov.it/content/dam/sogei-ng/documenti/PNRR%20Aggiornato.pdf

4 https://doi.org/10.1787/9789264277274-en. E’ liberamente leggibile online, ma scaricabile solo a pagamento, pratica piuttosto curiosa in epoca di open access, tanto più che si tratta di un documento dedicato principalmente al settore dell’educazione scolastica.

5 https://unesdoc.unesco.org/ark:/48223/pf0000252335.locale=en

6 https://publications.jrc.ec.europa.eu/repository/bitstream/JRC107466/pdf_digcomedu_a4_final.pdf

7 Come ho cercato di dimostrare in “Privato, pubblico e aperto”, Media Education 12(2): 15-24. Dicembre 2021. https://www.academia.edu/69601402/Privato_pubblico_e_aperto

La scuola (non) è un ambiente di apprendimento?

Di recente (febbraio 2022) è apparso uno scritto di Gert Biesta sul tema degli ambienti di apprendimento (“The school is not a learning environment: how language matters for the practical study of educational practices”. Studies in Continuing Education, 44:2, 336-34. https://doi.org/10.1080/0158037X.2022.2046556). E’ curiosa la coincidenza, almeno temporale, con l’uscita del Piano Scuola 4.0 in cui invece si parla estesamente di come trasformare le scuola in ambienti di apprendimento digitale, connessi, innovativi e persino intelligenti.

Portrait de Socrates, philosophe
André Thevet, 150?

Gert Biesta non è conosciutissimo in Italia: è appena uscita una traduzione di un suo libro del 2017, The rediscovery of teaching (Riscoprire l’insegnamento, Raffaello Cortina, 2022) che può essere una buona introduzione al suo pensiero.

In ogni caso, questo scritto più recente è un’introduzione ad una serie di articoli sul concetto di spazio e sull’influsso sulle pratiche degli educatori (“How built spaces influence practices of educators’ work: An examination through practice lens”). Biesta ne approfitta per attaccare il termine “learning environment” se applicato alle scuole: sostiene che le scuole non possono essere pensate come learning environments perché questo non le differenzierebbe da infiniti altri ambienti dove, per l’appunto, avviene l’apprendimento: fabbriche, uffici, prigioni, ospitali, internet. Nemmeno avrebbe senso differenziare le scuole come ambienti dove l’apprendimento è “potente” perché le fabbriche della Nike in Vietnam o quelle di IKEA in Bangladesh sono ambienti di apprendimenti molto più “potenti” della media delle scuole.

In particolare, Biesta sostiene che le caratteristiche di un ambiente di apprendimento innovativo (ILE, secondo la definizione dell’OCSE) non dicono nulla su cosa dovrebbe essere la scuola. Un ILE secondo l’OCSE dovrebbe essere centrato sull’apprendente, supportare la ricerca e l’apprendimento autonomo, essere personalizzato, inclusivo e orientato al gruppo (https://read.oecd-ilibrary.org/education/innovative-learning-environments_9789264203488-en#page1) . Queste caratteristiche, per Biesta, sono relative al processo, all’efficacia, ma non allo scopo; per questo non hanno nulla a che fare con la scuola, perché sarebbero applicabili anche ad un campo di addestramento dell’ISIS o della Hitlerjugend.

Ma Biesta è ancora più duro quando dice che lo stesso termine “apprendimento” andrebbe eliminato dai discorsi educativi. Infatti – interpretato l’apprendimento come una modifica più o meno permanente nell’individuo – non basta che ci sia apprendimento perché si possa parlare di educazione, ma si devono porre le questioni relative ai contenuti, ai temi, ai fini e alle relazioni. C’è educazione quando gli studenti imparano qualcosa, per una certa ragione, da qualcuno, o, più specificamente, quando imparano attraverso una particolare relazione educativa. Lo stesso concetto, quasi con le stesse parole, è espresso da Biesta in “Riscoprire l’insegnamento”, pag. 40:

Lo scopo dell’insegnamento, e dell’educazione in generale, non è mai che gli studenti imparino “semplicemente”, ma che imparino qualcosa, che lo imparino per ragioni particolari, che lo imparino da qualcuno.

Si tratta di una visione che data almeno dal 2004 (“Against learning. Reclaiming a language for education in an age of learning”, https://orbilu.uni.lu/bitstream/10993/7178/1/NP-1-2005-Biesta.pdf). La società del welfare promette di fornire a tutti i cittadini i beni necessari, di cui essi sono consumatori; l’apprendimento è una transazione economica tra apprendenti e educatori. Questo approccio porta Biesta a contrapporsi a quella che chiama “learnification” del discorso sull’educazione: dai modelli di scuola che mettono al centro lo studente fino al life-long learning che rende anche l’adulto un perenne studente. Si tratta di un discorso che mette l’accento sul controllo, anziché sulla libertà, sull’addomesticamento anziché sull’emancipazione. Un discorso che si concentra sulla conoscenza utile alla società (cioè sulla trasformazione degli studenti in cittadini obbedienti e lavoratori produttivi, dotati della abilità e della flessibilità che li rendono adattabili e fungibili ad ogni circostanza), invece che sulla conoscenza realmente utile (quella che consentirebbe agli studenti di opporsi alla richiesta di adattamento).


Personalmente sono convinto, da almeno altrettanto tempo di Biesta, che le scuole siano ambienti di apprendimento, ma ambienti particolari, dove l’apprendimento è controllato; non sono i migliori ambienti possibili, ma sono meglio di niente. Non sono i soli luoghi dove si impara e non sono solo luoghi dove si impara: sono luoghi dove l’imparare è gestito, controllato, valutato, supportato. Tendenzialmente, tutte queste attività hanno il fine di evitare che l’apprendimento si blocchi troppo presto, o che acceleri troppo. E’ vero che il controllo è centrale nella scuola; ma non un controllo che blocca lo studente, un controllo che lo spinge avanti e insieme lo sostiene. Questo è, o dovrebbe essere, il senso della valutazione (educativa) nella scuola, che è appunto una delle caratteristiche che la distingue da altri ambienti dove pure si apprende.

Mentre trovo che gli esiti del discorso di Biesta (o forse il suo punto di partenza) siano del tutto condivisibili, non sono d’accordo con il suo percorso, principalmente perché non condivido i suoi significati.

Apprendimento non è per forza acquisizione di conoscenze e comportamenti stabili. Questo è il modo standard di intendere l’apprendimento, ma ne esistono altri. Lo stesso Biesta sostiene altrove che apprendimento sia un’altra cosa:

“[…] rispondere a qualcosa che è altro o differente, che sfida, irrita e disturba, piuttosto che l’acquisizione di qualcosa che vogliamo possedere” (Against learning, , cit., pag. 62).

Se questo è apprendimento, e se sfidare e disturbare è il compito dell’educazione, non si vede perché la scuola non possa essere definita come un luogo di apprendimento. Partire da un significato errato per dimostrare che i costrutti che lo usano sono deboli non è un modo corretto di teorizzare, a mio avviso.

Lo stesso “learning environment” viene inteso da Biesta semplicemente come “ambiente nel quale accade l’apprendimento”. Ci sarebbero potute essere altre interpretazioni: un ambiente fatto apposta per l’apprendimento; un ambiente che apprende, cioè che muta, in funzione di quello che fanno i soggetti che apprendono; un ambiente che è esso stesso un elemento fondamentale perché si possa parlare di apprendimento. Ma Biesta fa evidentemente riferimento all’interpretazione standard dell’espressione: un luogo, uno spazio dove fisicamente si collocano gli studenti. Se si riferisce al discorso (“sayings”) sull’educazione, allora sta dicendo solo che questo modo di parlare delle scuole come spazi dove avviene, miracolosamente, l’apprendimento, è scorretto; ma questo non significa ancora che le scuole non siano ambienti di apprendimento, solo che il discorso sulle scuole va rimesso su binari giusti.

Capisco la sua distinzione tra educazione e apprendimento, ma non ne condivido l’uso. Da un lato la distinzione è piuttosto ovvia: educazione e apprendimento sono chiaramente due cose diverse. Ci può essere apprendimento senza educazione e a volte, purtroppo, c’è educazione senza apprendimento (a meno che non si consideri educazione solo quella che produce apprendimento, ma questo sembra contraddire il suo pensiero che è volta appunto a privilegiare la prima sul secondo).

Trovo però poco condivisibile la posizione secondo la quale l’apprendimento sarebbe secondario e l’educazione fondamentale: un’umanità senza educazione sarebbe probabilmente caotica ma sopravviverebbe; un’umanità incapace di apprendere non durerebbe una sola generazione. Inoltre la forma specifica di educazione che sembra avere in mente Biesta (questa forma storica, fatta di pratiche, relazioni, obiettivi) è appunto solo l’ultima arrivata. Come specie, ce la siamo cavata abbastanza bene anche con le forme precedenti (la famiglia, la tribù, la bottega), che progressivamente si sono allontanate da un apprendimento selvaggio dando sempre più importanza al controllo, e si spera che siamo in grado di inventarne altre ancora migliori. Certo possiamo fare di tutto perché l’educazione sia emancipante: cioè che diriga l’attenzione degli studenti ma lasci a loro di immaginare cosa fare con ciò che incontreranno. Però non si tratta del concetto di educazione in generale, si tratta del nostro modo di intenderla qui e ora. Anzi: identificare l’educazione con questa educazione rischia di nascondere alla vista tutti i casi in cui le prassi che stanno sotto la categoria “educativa” vanno in una direzione non emancipante. E’ un po’ come il discorso etimologico: siccome educazione viene da educere, tirare fuori, allora l’educazione è questo o quest’altro. Educazione non è quello che a noi piacerebbe che sia, è l’insieme – bello o brutto – delle pratiche che chiamiamo educative.

Anche il ragionamento generale di Biesta mi convince poco. La deduzione “la scuola non è un ambiente di apprendimento perché ne esistono altri dove si apprende” mi pare francamente un errore logico. Sarebbe come dire che un libro di testo scolastico non è educativo perché esistono altri libri. E’ ovvio che va trovata una differenza tra una fabbrica (dove pure si apprende) e una scuola, ma questa differenza è legata ai modi, ai tempi, alla qualità dell’apprendimento. Certo non si apprende allo stesso modo in prigione e a scuola. D’altra parte il fine principale delle prigione non è l’apprendimento dei detenuti (oppure sì? la rieducazione è una forma di educazione?).

Trovo poi che il riferimento all’ISIS e alla HJ sia completamente fuori luogo. Si può dire molto sull’orientamento politico dell’OCSE (l’Organizzazione per la Cooperazione e lo Sviluppo Economico) e su quanto i suoi documenti siano finalizzati a sostenere e replicare un certo modello di società. Ma i due esempi citati da Biesta molto verosimilmente non applicano nessuno dei principi dell’ILE: non c’è personalizzazione, non c’è apprendimento libero e autonomo, non c’è ricerca individuale o di gruppo. E’ vero, naturalmente, che sono ambienti che hanno come finalità l’apprendimento, ma non dell’apprendimento in generale: al contrario, mi pare che siano un buon esempi di apprendimento di qualcosa, per ragioni particolari, da qualcuno. Nei campi di addestramento militare si insegnano tecniche per uccidere e sopravvivere, si insegna a mettere il rispetto della gerarchia più in alto del rispetto per la propria vita. Lo si fa per uno scopo preciso, funzionale ad una certa idea di società futura, lo si fa attraverso una fortissima relazione tra apprendente e docente.

Sostenere che una scuola è davvero scuola solo se chi la gestisce ci assomiglia in termini di valori è un modo pericoloso di ragionare. Una scuola può essere scuola e avere – dal nostro punto di vista – obiettivi sbagliati, insegnare contenuti sbagliati nel modo più violento che possiamo immaginare. Ma questo non dice nulla sul fatto che sia progettata, costruita e gestita proprio come una scuola, cioè come ambiente di apprendimento controllato. La peggior forma di teoria pedagogica, contro cui non ci sarebbe difesa, è proprio quella che identifica la scuola con la nostra scuola.



In generale, il motivo per cui a Biesta non piacciono i learning environment mi pare sia altro. Il pensiero di Biesta mi pare metta sempre al centro l’umano-educatore, proprio mentre sembra concentrarsi sull’umano-apprendente. La relazione educatore/educato è centrale nel suo pensiero, il che significa che deve sempre essere presente un educatore umano. Questo ovviamente esclude ogni mediazione reificata, fissata una volta per tutte (come nel caso dei libri) o dinamica (come nel caso dei software), che non preveda la presenza immediata dell’educatore umano. Un ambiente per l’apprendimento sarebbe, nella visione di Biesta, un ambiente che non ha bisogno di educatori (dimenticando, a mio modo di vedere, che un educatore non è tale solo nel preciso momento in cui parla allo studente, ma anche quando progetta, prepara, organizza, monitora, supporta). Si arriverebbe anzi al paradosso per cui un ambiente di apprendimento in cui l’educatore sia inquadrato da una videocamera sarebbe accettabile, per Biesta, mentre dal mio punto di vista non sarebbe affatto un ambiente di apprendimento. Mi pare una posizione già vista: è quella del Socrate messo in scena da Platone nei suoi dialoghi, l’educatore-levatrice, che insegna con la sua vita (e con la sua morte) più che con i suoi contenuti, che cerca di convincere l’allievo tramite l’Eros, che in fin dei conti, anche se a fin di Bene, plagia lo studente e lo trasforma a sua immagine e somiglianza.

Non c’è bisogno di altro perché da questa visione vengano esclusi gli ambienti di apprendimento digitali.

Ora è chiaro, almeno per me, che questi ambienti, se visti come succedanei dei docenti umani, sono spaventosi e per il momento ridicoli; ma potrebbero invece avere senso come spazi arredati, creati da umani per altri umani, da esplorare e modificare insieme.

Certamente sullo sfondo ci sono gli spettri di Plato, degli Intelligent Tutoring System, delle piattaforme intelligenti che decidono al posto del docente e dello studente (come quelle auspicate nel documento UNESCO del 2017 “In Pursuit of Smart Learning Environments for the 21st Century”). Ma, per l’appunto, questi ambienti sono esistiti ed esistono, e non sono puri divertimenti dello scienziato pazzo di turno, ma evidentemente sono lì per rispondere a bisogni di qualche tipo (economici? di controllo? di potere?). Ignorarli non mi pare il modo migliore di combatterli e di progettarne di migliori.

La Babele delle API

No, non faccio il filosofo di mestiere. Però ho studiato filosofia a tre riprese.
La prima a scuola, per tre anni, in maniera sistematica e lineare. Purtroppo di quello studio non mi è rimasto molto, forse perché l’unico tentativo del professore (avvocato di mestiere) di coinvolgere la nostra classe è stato il primo giorno del primo anno ed è fallito miseramente (“Un uomo vale per me diecimila se è il migliore”: noi, classe autarchica e extraparlamentare, immediatamente bocciammo Eraclito).
Da quel momento si limitò a fare lezione in maniera tradizionale, ovvero recitando un discorso che sembrava lui stesso aver imparato a memoria e chiedendoci di fare lo stesso alle interrogazioni, senza leggere altro che i suoi appunti, senza approfondire, senza discutere.

La seconda all’università, per quattro anni, in maniera randomica. Ma non era colpa mia: non mi orientavo facilmente tra le “storie della filosofia X” e le “filosofia Y”. Anche perché mentre X era tutto sommato una categoria omogenea, temporale, Y invece poteva essere un settore, un ambito culturale, una facoltà cognitiva. Dopo un po’ ho capito che mi interessava di più una terza categoria: la “filosofia di Z”, cioè le filosofie applicate, per così dire: la filosofia del linguaggio (ho studiato alla Sapienza di Roma in un periodo dove “filosofia del linguaggio” significava De Mauro) e soprattutto la filosofia della scienza. C’era una scienza, con un suo percorso storico, e si poteva analizzare in termini di concetti impliciti, di pretese, di fallacie nascoste.
Il periodo più fruttuoso è però il terzo, che è durato trent’anni, ed è quello in cui ho cercato di applicare quello che avevo studiato al mio campo professionale, cioè l’informatica. Ho cercato di ripensare concetti come interfaccia, oggetto, dialogo, apprendimento sulla base delle esperienze che man mano facevo. Ho preso appunti, ho scritto qualcosa qua e là, senza pretese e più per me che per gli altri.


Mi pare che oggi – con una maggiore attenzione mediatica, positiva e negativa, sulla filosofia, e una sempre maggior inconsapevolezza nell’uso degli strumenti informatici – sarebbe utile provare a raccogliere questi tentativi in una forma più strutturata. Non per chiudere il discorso, ma per iniziare una conversazione a più voci con chi ne avrà voglia.

La forma che dovrebbero avere questi saggi di filosofia del digitale non può essere, per quanto mi riguarda, quella apodittica: il digitale è qui, il digitale è là. Non solo perché “digitale” non è un concetto monolitico, e anzi parlarne in termini di oggetto unico è parte del problema. Non è un soggetto metafisico dotato di identità e di volontà proprie, come sembra a volte di capire. Non più di quanto non siano soggetti metafisici gli “algoritmi“: i quali, incolpevoli capri espiatori, sono pensati da persone e realizzati in programmi scritti per uno scopo preciso.
Il digitale non è e non fa: ci sono strumenti e oggetti digitali, progettati e realizzati da persone, che però condividono alcune caratteristiche fondamentali, talmente fondamentali che se non si parte da lì non si capisce come funzionano. Solo che il discorso su questi oggetti non può essere esclusivamente tecnico, perché va a toccare la maniera con cui pensiamo le cose con cui abbiamo a che fare tutti i giorni.
Ma nemmeno, credo io, si può parlare del digitale solo in una prospettiva di “teoria dei media digitali”, partendo solo dagli usi che se ne fanno, come se fossimo etnologi alle prese con popolazioni selvagge (i “nativi” digitali) o esobiologi davanti alla fauna di un pianeta lontano (la “rete”). Non che non sia importante studiare anche questi aspetti, che ci riguardano da vicino, ma non si può partire da lì e ignorare quello che c’è sotto, le caratteristiche intrinseche che facilitano certe relazioni e ne impediscono altre. Queste caratteristiche non determinano le relazioni più di quanto la macchina a vapore abbia determinato la relazione tra operaio e proprietario della fabbrica; ma ignorarle significa fare un atto di fede sulla naturalità delle “digisfera” (non esiste? beh, l’ho inventata proprio ora).

Perché fare questi ragionamenti ad alta voce, insomma pubblicarli? E’ una forma di terapia. Certe difficoltà che incontriamo, certe ansie, certe paure dipendono in fondo dal fatto che di questi oggetti digitali sappiamo poco, capiamo poco, e anche se siamo costretti ad usarli lo facciamo come se fossero i vecchi, rassicuranti oggetti analogici. Ma non lo sono. Per rassicurarci, tendiamo a immaginare il futuro davanti a noi estendendo il presente, stirandolo, prolungandolo, con un’operazione analogica, appunto. Invece ci sono già delle cesure enormi tra come era e come è e sarà. Ci sono dei salti nei modelli economici, delle trasformazioni radicali nelle relazioni tra persone.
Una analisi filosofica degli artefatti digitali ci potrebbe aiutare a capire queste trasformazioni, potrebbe insegnarci a trattare con quelle paure, se non proprio a superarle.

E’ anche possibile che questi ragionamenti possano portare qualche novità proprio nel cuore della filosofia. In fondo la filosofia ha costruito i suoi concetti a partire dagli oggetti analogici, costruiti attraverso i nostri cinque sensi, e utilizzando il linguaggio naturale come unico collante. Il fatto che esista una nuova “specie” di oggetti che sono costituiti solo da informazione e che esistano linguaggi artificiali con cui questi oggetti possono essere creati e manipolati potrebbe insegnare qualcosa anche ai filosofi.

Filosofico non deve significare difficile, contorto, pieno di rimandi ad autori classici e meno classici in nota. Non deve nemmeno significare astratto, generale, che si arresta alle grandi domande: è un modo dell’indagine e del discorso, quello che sale e riscende, come indicano i pupazzetti di Platone e Aristotele nella Scuola di Atene di Raffaello.
E’ anche il modo che mi si addice di più: quella artigianale. Una filosofia che nasce dalla prassi, diventa teoria e poi cerca una validazione di nuovo nell’esperienza.

La forma potrebbe essere quella di una serie di racconti che partono ogni volta da un’esperienza pratica e su questa provano a esercitare un’analisi, a estrarre dei concetti generali, fino a vederne altri effetti, anche e soprattutto attraversando i confini disciplinari.
Quello che segue è un esempio.


In questi ultimi sei mesi sto lavorando nel tempo libero (rileggete: sto lavorando nel tempo libero) ad un’applicazione web che permette di consultare dei contenuti strutturati in capitoli e pagine (per la precisione: stanze e pannelli, visto che si tratta di una Mostra online). Ho scritto i codici sorgenti dell’applicazione web, ma anche i testi, per via del fatto che per dimostrare la validità di un’idea ho capito che occorre mostrarne almeno una prima realizzazione. Siccome penso che le cose che ho scritto potrebbero interessare anche persone che non parlano italiano, ho pensato di tradurre 135 pagine HTML dall’italiano al francese, all’inglese e allo spagnolo. Le pagine HTML non hanno una grande formattazione (grassetti, corsivi, dimensioni dei titolo) ma hanno delle tag interne (come <wikipedia> o <data-time>) che servono a fare in modo che l’applicazione possa estrarre informazioni per indicizzare le pagine, oppure a permettere l’espansione automatica di una parola in un link ad una pagina di Wikipedia o ad un video su Yotube.

Le pagine in media sono piccole, tra le 500 e le 1000 parole. Non possedendo io le competenze linguistiche necessarie, né potendo sfruttare quelle familiari, mi sono rivolto alle agenzie di traduttori. Un costo standard per una traduzione non tecnica di una pagina di queste dimensioni dall’italiano alle principali lingue europee mi pare essere tra 10 € e i 40 €. Sale anche a 150-200 € se si richiede una revisione di qualità. Non è tanto, anzi a me pare molto poco. Significa che il traduttore è pagato una miseria, e avendo assistito mia moglie nella traduzione di uno scenario di film posso dire che è un lavoro bellissimo ma ingrato e infinito.

135 pagine x 20 € x 3 lingue però fa oltre 8000 €, che sono molto, molto al di là di quello che mi posso permettere, perché il progetto non è finanziato da nessuno. Rinuncio? Faccio tradurre solo un piccolo sottoinsieme delle pagine? Chiedo aiuto a volontari con un crowdtranslating? .

C’è una alternativa che senz’altro conoscete tutti: i traduttori automatici su web. Ho una precedente esperienza sia con Bing che con Google, che ho provato per tradurre delle etichette e dei messaggi di un’altra applicazione web. Siccome in quel caso evidentemente il contesto linguistico di ogni elemento era limitato (un grosso file in cui ogni riga si poteva riferire ad argomenti diversi), il sistema di traduzione di entrambi prendeva cantonate notevoli. Qui forse le cose andrebbero meglio perché ogni pagina parla di un determinato argomento, e poi è passato del tempo.

Mi consiglia un amico di lasciar perdere Google e Bing provare DeepL, che è un servizio di una società tedesca. DeepL è basato su reti neurali convolutive, che naturalmente tutti noi conosciamo e mangiamo a colazione. Il nome fa riferimento al deep learning, che è un tipo di machine learning, quella parte dell’intelligenza artificiale in cui si cerca di riconoscere strutture non sulla base di definizioni formali, ma sulla base di somiglianze. In sostanza, grandi moli di testi vengono raccolte e utilizzate per costruire e addestrare modelli di traduzione. La storia di DeepL è abbastanza tipica per il settore: inizia nel 2007 come Linguee, una società tedesca fondata da un ex-dipendente di Google che raccoglie milioni di testi in giro per il web (anche quelli del Parlamento Europeo, che sono multilingue e ben tradotti) e offre un servizio di concordanze online. Dieci anni dopo, sulla base dell’enorme materiale raccolto e di una rete neurale, la società cambia nome e lancia il primo servizio free di traduzione con sette lingue, per un totale di 42 coppie.

Esporto quindi tutte le mie pagine in un unico file PDF e lo carico. E’ troppo grosso, la traduzione automatica non arriva in porto. Ma anche se avesse funzionato, avrei avuto due problemi : dividere di nuovo il file in 135 file HTML e salvarli nel posto giusto col nome giusto; soprattutto avrei dovuto ripristinare a mano tutte le tag eliminate nella conversione in PDF. Non praticabile.

A questo punto mi viene in mente – perché sono un po’ tardo e lento come i passi di Petrarca – che sto trattando il problema in maniera “analogica”. Sto pensando il testo in termini di libro. Per tradurre un libro si prende il testo, lo si manda ad un traduttore; poi comincia un ciclo di revisioni; poi si prende la traduzione finale e la si impagina. Alla fine si distribuisce il libro tradotto nei mercati esteri. E’ un processo sequenziale con un “loop”, un ciclo di ripetizioni interno, per la parte di revisione. Ma è lineare e ogni parte presuppone quella precedente: non si può distribuire il libro se non è stato tradotto, e non si può tradurre se non è stato scritto.

Ma la mia è un’applicazione web, che non ha un momento finale: sarà sempre in pubblicazione. Non deve essere fissata in un certo momento per poi essere inviata ai distributori e poi alle librerie. Non serve a niente tradurre tutto: basta tradurre quello che le persone vogliono visualizzare. E non serve a niente tradurlo prima: basta tradurlo un attimo prima di quando qualcuno vuole visualizzare una pagina. E infine: potrebbe essere necessario tradurre nuove pagine man mano che si aggiungono, o ritradurre alcune pagine che sono state modificate.

Quindi cerco meglio e scopro che DeepL (come probabilmente ogni altro servizio del genere) offre delle API, cioè degli indirizzi HTTP a cui si possono inviare testi da tradurre e che restituiscono la traduzione immediatamente, senza bisogno di intervento umano. Inoltre si può specificare che non si desidera tradurre un romanzo, ma una pagina HTML, escludendo dalla traduzione certe particolari tag (che è proprio quello che mi serve).

Inserisco perciò nel codice sorgente dell’applicazione un test: se l’utente ha scelto l’inglese (o il francese, o lo spagnolo), e il file HTML corrispondente non esiste, viene inviata la pagina italiana e ne viene chiesta la traduzione alle API di DeepL. Tempo due secondi, arriva la pagina tradotta, viene mostrata al visitatore e salvata. L’utente non si accorge quasi di nulla. Al prossimo accesso, quella pagina esiste e il risultato è immediato. Insomma, non sono io che mi occupo della traduzione, ma l’applicazione stessa che risponde alle esigenze dell’utente in maniera automatica, esattamente come gli restituisce i risultati di una ricerca. Contemporaneamente, l’applicazione confronta la data della versione originale (in italiano) e quella della versione tradotta: se la prima è più recente della seconda, richiede una nuova traduzione.

Adesso provo a dire in termini più generali perché un documento digitale non è un libro.

L’uso del servizio online ha trasformato un processo sequenziale in un processo “just in time”, spezzandolo non in funzione della struttura o dell’organizzazione della produzione, ma in funzione del suo utilizzo. Non mi devo procurare una bicicletta in previsione di quando smetterà di piovere e avrò voglia di fare una passeggiata, ma mi trovo una sella sotto il sedere quel giorno lì, appena uscito di casa, e mentre comincio a pedalare appaiono le ruote. Magie digitali? No, è solo che i servizi che chiamiamo “immateriali” (ma che non lo sono, visto che richiedono sempre hardware per essere fruiti) non hanno bisogno di mimare completamente quelli analogici. Se lo fanno, è solo in un momento iniziale, per non confonderci le idee. Bolter e Grusin parlavano di “remediation” per indicare questa capacità di un medium di citare e riassorbirne un altro: beh, di sicuro i servizi digitali rimediano quelli analogici e inizialmente passano inosservati, come ho scritto anche qui. Ma sotto sotto funzionano diversamente.

Il motivo generale per cui è possibile questo andamento dinamico è la caratteristica fluidità degli oggetti digitali. Mentre le pagine di un libro (meglio, di una certa edizione di un libro) sono fisse, hanno una dimensione, un numero di righe, di parole e di lettere, un colore, un carattere e una dimensione, le pagine di un e-book no. La pagina dell’ebook si crea quando viene visualizzata, in funzione di tre livelli di impostazioni: quella iniziale, voluta dall’editore (un certo carattere, per esempio Arial, una certa dimensione delle lettere); quella del dispositivo (una certa dimensione dello schermo, una certa risoluzione in termini di punti per centimetro quadrato); quella decisa dal lettore umano (un carattere diverso, una dimensioni più grande, un’interlinea maggiore). L’ultima vince sulla seconda che vince sulla prima. Da questa trattativa risulta una disposizione del flusso di lettere particolare, probabilmente unica, modificabile in ogni momento. E’ per questo che dire “pagina 3” di un ebook non significa niente, perché cosa viene mostrato dipende dalle impostazioni, dalle scelte, dalle possibilità previste. Uno dei miei primi tentativi di creare un software “educativo” è stato Scribo. Era un software per la videoscrittura semplificato che avevo scritto col linguaggio Pascal. La cosa su cui ho perso più tempo è stata proprio la continua ritrasformazione del flusso lineare del testo in una matrice righe x colonne. Lì ho capito che “pagina numero 3” non significa nulla, mentre “lettera numero 240” invece sì. Ho capito anche quanto la pagina (e lo schermo, che la mima) fosse un’unità completamente arbitraria. La stessa cosa vale ovviamente per le immagini e i suoni, ma per adesso lasciamo questo discorso.

C’è un altro senso per cui un testo digitale non è un libro: perché in fondo non ha un’esistenza propria, se non nel momento in cui qualcuno la vuole ritrovare, consultare, stampare. Non ha senso dire che un testo digitale “sta” da qualche parte, come un libro in una biblioteca o in un archivio che c’è anche quando la biblioteca è chiusa, quando nessuno lo cerca. Un testo digitale è “file” cioè una sequenza di bytes immersa in una sequenza più grande (una tamburo magnetico, un nastro, un disco: non è importante). Quel file però non esiste se non perché è indicizzato, inizia qui e finisce lì; altrimenti è solo una massa informe di bytes indistinguibili da quello che c’è prima e quello che c’è dopo. Questa è una delle caratteristiche primarie degli oggetti digitali: non sono oggetti, ma sono finestre, viste, inquadrature applicate su una sequenza di simboli. L’accesso ai file di un disco è realizzato tramite un indice, che in certi vecchi sistemi operativi si chiamava FAT (File Allocation Table: tabella di posizionamento dei file). Se la FAT si rovinava, era impossibile recuperare i file e il disco era praticamente inutile (per questo ce n’erano due). Certo le sequenze sono diverse, e hanno delle caratteristiche intrinseche che le individuano, cioè l’ordine in cui sono disposti i bytes. Questo ordine è ciò che permette ad un programma antivirus di andare a caccia della “firma” caratteristica di un virus anche senza sapere dov’è.

Una seconda caratteristica importante di un documento digitale, che lo differenzia da un libro, è che la forma con cui lo vediamo o lo pensiamo dipende sempre da qualche operazione che ci facciamo sopra: lo vogliamo tradurre in punti neri su uno schermo bianco o sulla carta, o lo vogliamo tradurre, o analizzare per contare le occorrenze di certe parole. Il documento non esiste in sé e per sé, ma in funzione di quello che ci si fa. Volendo si potrebbe forzare il discorso fino a dire che ogni documento digitale è un programma, nel senso che è una descrizione di azioni possibili, più che di proprietà. Come se ogni documento fosse una ricetta o uno spartito. Ma in realtà di solito ci limitiamo a pensare a certi file come composti da dati, inerti, passivi, e certi altri come programmi, solerti, attivi. E’ una scelta nostra, di convenienza, che però non ha un vero fondamento. Anche i programmi sono dati, e si possono leggere, scrivere, trasformare, tradurre, disegnare, suonare, oltre che eseguire.

E’ per questo che per il servizio di DeepL tradurre un testo in HTML non è un problema: quello che traduce non è il testo che leggiamo noi umani che traduce – un testo che ha un significato per noi perché fatto di parole e segni di interpunzione – ma il documento digitale corrispondente, che strutturato come un albero di tag. Su quest’albero vengono effettuate delle operazioni di ricerca, estrazione, messa fra parentesi. Lo fa DeepL per tradurlo, ma lo fa un browser qualsiasi come Firefox o Edge per mostrarmelo, lo fa un motore di ricerca per indicizzarlo. Per essere ancora più precisi, noi non vediamo mai la cosa digitale, nemmeno quando spiamo il codice sorgente di una pagina web, ma vediamo il risultato di qualche operazione su di essa.

Se ogni volta che abbiamo a che fare con un documento digitale in realtà interagiamo con un programma che lo trasforma, allora dovrebbe essere chiaro è sempre con agenti digitali che abbiamo a che fare. Quando parliamo del web come di una “Internet dei Documenti” tra cui saltabecchiamo in funzioni dei nostri interessi del momento, seguendo link o risultati di ricerca, dovremmo piuttosto parlare di una “Internet degli Agenti”: programmi che parlano tra loro, quando e se lo ritengono opportuno. Un dialogo invisibile agli umani, che continuano ad essere convinti di “navigare la rete”, come se fosse la superficie di un mare, magari sconosciuto, ma naturale. Non è un mare, è una conversazione, un bisbiglio continuo di cui non capiamo nulla ma ogni tanto percepiamo delle increspature e riconosciamo parole. Sono agenti che non hanno bisogno di essere tutti intelligenti, ma solo di essere stati programmati con un compito, lanciati e messi in comunicazione tramite qualche protocollo. Di protocolli ce ne sono tanti, antichi, nuovi, superati, contraddittori: eccola, la vera Babele.

Più ottimisticamente, quando Pierre Lévy (studioso della metafisica araba medievale) parlava di intelligenza connettiva utilizzava un concetto filosofico (l’intelletto agente di Averroè, che non è personale) per descrivere con una metafora questo dialogo che non è fra intelligenze, ma è una forma di intelligenza. Non: l’intelligenza artificiale è all’origine del dialogo, ma: l’intelligenza artificiale è la forma che assume per noi questo dialogo. Quando si parla di aspetti etici dell’intelligenza artificiale occorrerebbe pensare in questi termini: non entità superiori, ma agenti computazionali limitati. Come fa da tempo Salvatore Iaconesi.

Questo dialogo ci è utile, anzi non sapremmo più farne a meno (pur non accorgendocene). Ma ha anche degli effetti più sgradevoli per alcuni di noi: il servizio di traduzione just in time rende il traduttore umano un po’ meno utile se non addirittura inutile. Certo è ancora utile per chi ha bisogno di una vera traduzione letteraria, artistica, legale. Ma per le piccole aziende che vogliono provare a esplorare i mercati mondiali, per le associazioni no profit che si occupano di intercultura e migranti, per gli studenti di ogni disciplina, per chi come me ha bisogno di comunicare al di fuori del suo piccolo angolo di mondo: per tutti noi i traduttori umani diventano un’opzione perfettamente rinunciabile. Per noi la qualità della traduzione di DeepL è più che accettabile. Ma non lo dico io: qui potete leggere uno studio che confronta i risultati della traduzione dall’italiano al tedesco in ambito giuridico, tecnico e promozionale di DeepL con altri sistemi. E non può che migliorare: DeepL, come molti altri, mette i suoi servizi a disposizione non solo del pubblico generico, ma anche dei traduttori umani. Perché? perché più viene usato, più aumentano le dimensioni dei dati su cui viene fatto il training dei modelli di machine learning, più migliora la qualità. Non è lontano il giorno in cui la qualità di una traduzione automatica sarà indistinguibile da quella umana; o meglio, il giorno in cui la qualità sarà variabile a piacere, in funzione del prezzo che si è disposti a pagare. A quel punto, i traduttori umani potranno cambiare mestiere. Già prima, scompariranno gli istituti di formazione linguistica che già ora cominciano ad avere difficoltà a trovare studenti: a che serve studiare da traduttore se poi questo lavoro sta per scomparire? Ne parlo un po’ più a lungo qui.

Insomma la IoA (la Internet of Agents) non è un fatto naturale o un sottoprodotto che il meraviglioso progresso della scienza ci regala: è il risultato preciso di un modello di società fortemente voluto non solo dai Grandi Cattivi, ma un po’ da tutti: le competenze professionali tradizionali vengono acquisite da sistemi digitali e le persone vengono sostituite da servizi sempre più piccoli, specializzati, mirati al bisogno nel momento in cui viene espresso (o anche prima: dove vuoi andare oggi?).

Ecco che mi trovo in una bella contraddizione: rinuncio alle mie bellissime traduzioni, e mi chiudo in un eremitaggio a-tecnologico, da dove naturalmente la mia voce non esce, oppure chiudo gli occhi e partecipo alla fine di una professione su scala planetaria? E se non faccio nulla, ho qualche garanzia che le cose andranno diversamente?

Ecco anche perché capire come funziona il “digitale” è fondamentale per ri/progettare il futuro. Perché viviamo dentro una contraddizione e dobbiamo imparare ad farci i conti.

Sotto il vestito, il codice

Digitale ovunque. Nella scuola, nel lavoro, nel divertimento.

Digitale come servizio, come risorsa a disposizione di tutti, appena girato l’angolo di Google.

Tempo fa1 scrivevo che ci sono tre miti che circolano sulla rete:

  • 1) che sia un ambiente naturale,
  • 2) che le risorse che offre sono gratuite e
  • 3) che siano infinite.

Un supermercato infinito, con scaffali pieni di ogni ben di dio, senza nessuno alla cassa. Tanta formazione alla “didattica digitale” si poggia proprio su questi miti: ecco qui un sito per fare i cruciverba, ecco una app per i quiz, ecco una collezione di sfondi animati.

C’è ancora chi proprio non riesce ad adeguarsi al flusso mainstream e si domanda: cosa rende possibile tutto questo? Facile: i computer, prima di tutto, poi i cavi e i satelliti, senz’altro. Ma cos’altro c’è, sotto la superficie?

In un primo senso, sotto ci sono interessi, soldi, potere, che governano questo come altri campi, con buona pace di chi vede solo futuri rosei in cui intelligenze artificiali e persone andranno a braccetto. Non è grazie all’amore della condivisione della conoscenza che possiamo fare ricerche, scambiarci email, tradurre, condividere agende, parlarci a distanza senza spendere un euro. Ed è curioso che quasi nessuno – in un mondo così attento al profitto, alla conquista di ogni possibile mercato – metta in questione tutta quest’abbondanza di risorse gratuite; non solo quelle create e condivise da docenti-artigiani di buona volontà, ma anche quelle che richiedono enormi centri di calcolo solo per essere distribuite. Cosa ottengono le grandi imprese in cambio di questi servizi gratuiti? Da dove traggono le risorse economiche per restare in piedi? Per quanto tempo questi servizi resteranno gratuiti?

In un altro senso, sotto tutti questi servizi c’è il codice sorgente: un testo che fa funzionare i computer, raccoglie e trasforma dati, inventa mondi e connette persone. Anche oggi, nell’era delle interfacce ammiccanti, dei podcast, dei videotutorial, quello che c’è sotto è sempre un testo. Proprio così: solo lettere, numeri e segni di interpunzione, perché è di questo che sono fatti tutti i programmi che fanno girare il mondo, dagli smartphone ai satelliti. E questo non è tanto strano in una cultura in cui il paradigma dominante è ancora il libro scritto.

Oggi, molto più di ieri, siamo letteralmente (!) immersi in un mondo di testi. Solo che non lo sappiamo, o non vogliamo saperlo. La superficie è molto più rassicurante. Secoli di divisioni tra tecnica e umanesimo, tra estetica ed etica ci hanno abituato a disinteressarci di quello che c’è sotto il cofano della macchina. Il design dei dispositivi che ci rendono possibile lo stile di vita occidentale punta a nascondere sotto superfici lisce, morbide, dai colori tenui, tutto quello che potrebbe disturbarci perché ci ricorda che non lo capiamo.

Perché questi testi che governano il nostro mondo sono incomprensibili per il 99,6% della popolazione mondiale (oggi ci sono circa trenta milioni di programmatori nel mondo, che su 8 miliardi di abitanti del pianeta circa fa appunto lo 0,4 %). Questi trenta milioni sono gli unici esseri umani in grado di verificare (leggendolo) cosa fa un programma. Se, per ipotesi, venissero tutti sostituiti da software in grado di programmare al loro posto,2 avremmo un mondo perfetto di cui non saremmo più in grado di riprendere il controllo. Questo secondo senso si incastra perfettamente col primo: se otteniamo tutto quello che ci serve gratis, non c’è più bisogno di capire come funziona.

Ma sapere cosa davvero c’è sotto è importante anche per avere una conoscenza di una parte di attività umana che ci sfugge. Il codice sorgente non è fatto di 0 e di 1, come ancora si legge da qualche parte; magari sottintendendo che siccome usano un codice binario i computer possono scegliere solo tra due cose, bianco e nero, senza capire le sottigliezze, le sfumature: insomma sono stupidi. Sarebbe come dire che la lingua italiana è composta solo da una trentina di suoni e quindi non può esprimere più di trenta concetti. 0 e 1 sono le lettere di un alfabeto, con il quale si compongono parole, frasi, testi e intere biblioteche. Non è vero che computer capiscono solo 0 e 1: non li capiscono affatto. Invece capiscono istruzioni complesse, descrizioni di situazioni, condizioni, specifiche di azioni, purché appartenenti ad uno degli ottomila linguaggi di programmazione oggi esistenti e purché rappresentate con l’alfabeto più semplice possibile: quello appunto a due simboli. Sotto sotto il punto importante non è l’esistenza di due soli simboli, ma che i computer usino una logica a due valori per eseguire un algoritmo semplice come: “se questo valore è maggiore di 37 fai questo, altrimenti fai quest’altro” o uno più complesso, come quello che riconosce un viso. Qui però i computer digitali c’entrano poco: anche i primi computer, che erano analogici, si basavano sulla cosiddetta algebra di Boole (1847), che ha solo due valori. Dietro all’idea di effettuare un calcolo per decidere la verità di una proposizione c’è il neopositivismo, le tavole di verità del primo Wittgenstein, e poi indietro Leibniz, e poi Ramon Llull, e indietro “Sic et non” di Abelardo, e ancora prima le Confutazioni Sofistiche di Aristotele, fino alla dicotomia di Parmenide tra l’Essere e il non Essere. E il fatto che usino una logica a due valori non impedisce affatto ai software di produrre risultati con un grado di certezza limitato o valutazioni probabilistiche.

Quando oggi gli esseri umani scrivono il codice sorgente di un programma non usano 0 e 1, né quelle strane parolette incomprensibili (MOV, PTR, JMP) che sono solo delle etichette più facili da ricordare per ordinare al processore di spostare dati da un registro all’altro. I linguaggi che si usano oggi sono flessibili, complessi. Permettono di scrivere regole e fatti, di definire funzioni, di costruire classi di oggetti che ereditano conoscenze. Non sono nemmeno tutti ispirati all’inglese, come ancora qualcuno crede: ci sono linguaggi basati sul francese, sul finnico, sull’arabo, sul cinese.

I linguaggi di programmazione vengono inventati continuamente, a differenza delle lingue naturali. Spesso un linguaggio viene inventato per fornire ai programmatori uno strumento più veloce e pratico, o più flessibile e potente; a volte per fornirne uno più elegante e piacevole. Perché i linguaggi sono creati da esseri umani per altri esseri umani, non per i computer. Tant’è che ci sono linguaggi inventati per gioco, per divertimento, per mostrare quanto si è intelligenti e sfidare gli altri, ed hanno nomi come Malebolge, Shakespeare, LOLCAT, Chef o Cow. Questa classe di linguaggi, detti pomposamente “esoterici”, sono praticamente inutili, ma svolgono una funzione puramente estetica, alla faccia di chi sostiene che l’informatica è una tecnica senz’anima. L’esistenza di questi linguaggi dice anche molto sul fatto che gli esseri umani riescono a divertirsi anche facendo le cose più serie, e non resistono a prendersi in giro da soli.

Anche i codici sorgenti non sfuggono a questa legge: i testi dei programmi non sempre sono “algoritmi codificati in un linguaggio per risolvere un problema”, come vorrebbero i manuali. Ci sono programmi che non risolvono nulla, ma sono opere d’arte, scherzi, poesie. Sì, poesie: perché l’estetica si infila in ogni attività umana, in particolare quando si mette di mezzo un linguaggio.

Certo viene la curiosità, soprattutto per una scuola che ospita iniziative di Coding e che propone l’apprendimento del pensiero computazionale per preparare le generazioni future di programmatori (o almeno così pensa): ma chi sono allora questi programmatori? Sono sacerdoti della Macchina Divina che si aggirano in camice bianco? Sono hacker quindicenni e brufolosi che scatenano guerre nucleari spiattellando i segreti della CIA? Sono nerd bianchi etero che vivono solo per schiacciare tutti gli altri con la forza della loro conoscenza ultra-specialistica? Questi sono i luoghi comuni che costituiscono il nostro immaginario collettivo e che provengono dal cinema e dalla letteratura di fantascienza. Ma i programmatori sono anche altro: sono ragazzini e vecchietti, cinesi e russi, donne (poche, purtroppo) e altri generi, geni e principianti, creativi e precisini. Scrivono in maniera diversa, anche per ottenere lo stesso risultato, in base alla loro storia, alla loro lingua madre, alle preferenze stilistiche, alla fase della loro vita. Esattamente come ciascuno di noi scrive diversamente un messaggio d’amore e una velenosa lettera all’amministratore di condominio.

Il fatto è che ancora se ne sa poco: è un campo che non è studiato allo stesso modo, poniamo, di quello della letteratura tradizionale. Non esiste una “sociolinguistica” del codice sorgente.

Di tutti questi temi si è occupato CodeFest 2021, il festival online che si è svolto tra il 27 Settembre e l’8 ottobre 2021. Un Festival unico al mondo, organizzato insieme dall’Università di Torino e dall’associazione Codexpo.org. Riflessioni, concerti, spettacoli, laboratori in cui si affrontano l’estetica digitale, la conservazione del patrimonio, le sfide sociali, le infinite possibilità della scrittura. Tutto per cercare di sfatare il mito della programmazione come roba da macchine, per cercare di raccontare un’altra avventura dell’umanità alla ricerca della perfezione.

Altre informazioni, ma pure le registrazioni degli eventi, le potete trovare su https://codexpo2021.lynxlab.com .

1Le tre fallacie della rete, in “Una scuola per la cittadinanza. Volume 2: Gli orizzonti di senso”, a cura di Mario Ambel. PM Edizioni, 2020, pagg. 178-184.

2Come provo a raccontare in La fine della formazione, https://www.stefanopenge.it/wp/?p=912

Strumenti digitali usati analogicamente

Mi sono reso conto improvvisamente (eh sì) che la mia maniera di pensare la “didattica digitale” è spesso lontana da quella di molti che in teoria dovrebbero essere dalla mia stessa parte, la parte di quelli che studiano, sperimentano e propongono agli altri attraverso corsi, libri, seminari e sogni vari. Ci troviamo vicini, ci salutiamo cortesemente, sembra che vogliamo camminare nella stessa direzione, poi improvvisamente c’è un’interruzione di questa comunità di intenti. Forse ho capito perché.

Gli strumenti digitali sono tanti, diversi, e si possono usare in tanti modi diversi. Già per questo parlare di “innovatività del digitale”, o di “didattica digitale” è un po’ generico e ingenuo. Certi strumenti digitali si possono usare per creare strutture nuove, o per replicare modelli esistenti. Si possono usare in maniera ingenua, come se fossero funzioni naturali, date ad Adamo una volta per tutte; oppure si possono esaminare, scegliere, usare magari lo stesso ma sapendo chi li ha costruite e perché.
Soprattutto, si possono usare strumenti digitali come se fossero analogici, all’interno di strutture di pensiero tradizionali; oppure capire come funzionano e sfruttarne le caratteristiche più proprie.
Detto in altro modo: ci sono tante dimensioni lungo le quali si può immaginare e valutare l’uso degli strumenti digitali:

  • consapevole/ingenuo
  • creativo/fedele al modello
  • individuale/collettivo
  • fruitivo/produttivo

    ma quella fondamentale per me resta:
  • digitale/analogico

Dimensione paradossale, in cui il termine che sembra lapalissiano (“uso digitale di uno strumento digitale”) è in realtà la descrizione di un uso del digitale consapevole delle differenze e delle opportunità che offre rispetto al corrispondente analogico; mentre il contrario, cioè “l’uso analogico del digitale” è la descrizione di un uso veloce, superficiale, attento agli obbiettivi immediati, quelli che si possono definire a priori, indipendentemente dalle tecnologie scelte e usate.

Anni fa avevo provato a descrivere alcune delle caratteristiche del digitale. Sbagliando, credevo di parlare del “digitale in sé”, mentre stavo parlando proprio di questa differenza.
Scrivevo che il digitale è inerentemente flessibile, plurale, virtuale, omogeneo. Ognuno di questi aggettivi era un modo di descrivere delle operazioni possibili sugli oggetti digitali e non sui corrispettivi analogici: modificare all’infinito, modificare a più mani, tradurre e reinterpretare da un campo mediale all’altro, eccetera. Queste possibilità derivavano sia dal fatto che alla base c’erano bit, cioè forma e non materia, sia dal fatto che i dispositivi digitali si possono programmare per fare cose non previste, non contenute nell’orizzonte presente.

(La parte seguente può essere saltata da chi si è già interessato alla storia dei media e ha già riflettuto recentemente su questi temi, cioè immagino tutti. In questo caso, può saltare direttamente a leggere la Conclusione ).


1. Gli strumenti digitali nascono per la quasi totalità come rimediazioni di quelli analogici, come scrivono Bolter e Grusin, in un processo che non è una sostituzione netta, e in cui non è subito ovvio se e quando il doppio digitale prenderà il posto di quello analogico.
La coppia pc-wordprocessor, ad esempio, è una versione digitale della macchina da scrivere. Serve a fare le stesse cose, ma inizialmente costa anche di più, è più difficile da usare, richiede un apprendimento specifico; però presenta dei vantaggi: carta infinita, cambio di font, dimensioni variabili eccetera eccetera. Talmente vantaggi che le macchine da scrivere oggi sono scomparse.

Gli orologi analogici invece no, almeno quelli di altissima gamma. Come le carrozze a cavalli sono quasi scomparse, tranne per i matrimoni e per fare il giro del Colosseo. La versione digitale costa poco ed è per tutti, quella analogica per pochi. Potrebbe essere il destino dell’educazione analoagica (umana o cartacea), quella di essere riservata ai ricchi; ma passiamo oltre.
A volte sono quasi indistinguibili, come nel caso delle macchine fotografiche reflex o delle videocamere. Una reflex digitale assomiglia fisicamente ad una analogica, anche se pesa un po’ meno, e fa esattamente la stessa cosa. Solo che non ha bisogno di pellicola, perché la luce viene tradotta in bit prima di essere registrata su una scheda a stato solido, ma questo è del tutto trasparente per l’utente, il quale francamente se ne infischia.
All’estremo opposto, alcuni strumenti digitali sono apparentemente molto diversi da quelli analogici che intendono sostituire; o meglio, fanno astrazione dalla materia e dal corpo (che poi è proprio quello che fa meglio il digitale: rende generico l’hardware). Hanno in comune con quelli analogici solo l’interfaccia, il modello d’uso e lo scopo: un software di editing video assomiglia ad una centralina video ma è un software che gira in un PC qualsiasi, non ha bisogno di un macchina specializzata, non occupa spazio e si può aggiornare facilmente. Costa quasi lo stesso, è vero, ma si può copiare o accontentarsi della versione “open”.

In tutti questi casi, chi ha utilizzato prima gli strumenti analogici e poi quelli digitali ha (o meglio potrebbe avere) la percezione delle differenze, dei minus (“Ah, la qualità degli amplificatori a valvole…”) e dei plus (“Uh che sbadato! Va beh, Ctrl-Z”) che derivano dal fatto che i dati vengono creati filtrando e numerizzando segnali, e che una volta costituiti in forma digitale possono essere trasformati, copiati, inviati all’infinito, senza nessuna perdita. I più anziani, fortunati, o ricchi, possono permettersi di scegliere tra la versione analogica e quella digitale. In ogni caso, per quel poco o tanto di tecnica che conoscono, sanno che dentro il corpo macchina ci sono cose molto diverse.

Chi ha usato solo gli strumenti digitali invece li considera semplicemente gli strumenti disponibili oggi per ottenere certi risultati. Non confronta con nulla, non conosce la storia, non riconosce nel nuovo il vecchio – non sa perché sulle tastiere dei PC esiste un tasto per bloccare il maiuscolo che però non funziona con i tasti che presentano numeri e simboli insieme. Niente di male, intendiamoci: non bisogna per forza aver scritto con una penna d’oca per apprezzare le qualità della Bic. Ma per loro la Bic è lo strumento della scrittura, e non ce ne sono né possono essere altri. Soprattutto, non fanno attenzione al processo sottostante, non sono interessati al funzionamento.

2. C’è una seconda classe di strumenti, che nascono come doppi digitali di uno strumento analogico ma poi si trasformano in altro. E’ il caso del telefono, per spiegare l’evoluzione del quale non c’è bisogno di tante parole. In questo caso, una volta raggiunto l’obiettivo di simulare il comportamento dello strumento target (il telefono analogico) ci si è trovati tra le mani un oggetto talmente potente da poter essere usato come di altre pratiche (fare fotografie, registrare audio) e come terminale di servizi internet (navigare nel web, comunicare). Questo doppio o triplo uso per un certo periodo lascia interdetti gli utenti più vecchi, che continuano a usare uno smartphone come un telefono, mentre è perfettamente compreso dai nuovi utenti, che a limite non lo usano mai per telefonare, ma che importa? Non è un caso: è che essendo l’hardware (e il sistema operativo) dei supporti generici, quello che ci si fa sopra è praticamente illimitato. Una volta fatto lo sforzo di convincere le persone ad avere tra le mani un coso digitale, il più e fatto e da lì si può far passare tutto.

3. Infine ci sono gli strumenti totalmente digitali, nati digitali, senza nessuna corrispondenza analogica. Sono rari perché per affermarsi devono poggiare su concetti completamente nuovi. Il foglio di calcolo è uno di questi: non assomiglia veramente a nulla, non potenzia un foglio di carta a quadretti ma fa cose diverse (sostituisce la mente nei calcoli, e lo fa continuamente). Questi strumenti si basano su una caratteristica unica che gli deriva dall’essere, tutti, al fondo, dei computer: la possibilità di essere programmati. Che non significa : programmati per fare una cosa. Gli strumenti analogici si possono configurare, se ne possono variare i parametri; ma non si possono programmare, nel senso di stabilire comportamenti diversi in base a situazioni differenti. Uno strumento digitale è capace di scegliere come comportarsi sulla base di uno schema di situazione che può essere molto complesso e che si chiama “programma”.


Conclusione

Arriviamo al punto: i doppi digitali si possono anche usare limitandosi alle funzioni che erano possibili coi i loro antesignani analogici. Ma i risultati più ricchi, soddisfacenti, soprattutto per quanto riguarda l’educazione, si hanno quando se ne sfruttano le caratteristiche intrinseche, quelle che poggiano sul loro trattare dati digitali (flessibili, molteplici, omogenei…) e di poter essere programmati. Quando oltre ad usarli in maniera critica, creativa, in gruppo, per produrre artefatti eccetera eccetera si sfrutta il fatto che in questo particolare universo le lettere si possono trasformare in suoni, e i numeri in disegni; che le storie si possono rendere vive e le mappe navigabili, allora li si usa in maniera davvero educativa.
Ecco perché usare strumenti (o servizi) digitali all’interno di un framework educativo analogico mi pare riduttivo.
Ed ecco quello che mi separa da tanti educatori digitali “innovativi”.

Una teoria per l’apprendimento di gruppo

C’è una visione dell’apprendimento che si potrebbe descrivere partendo da questo schema di sapore informatico:

conoscenze = dati

abilità = algoritmi

competenze = saper applicare il corretto algoritmo ai dati relativi alla situazione attuale

L’apprendimento consiste nell’acquisizione dei dati, nell’elaborazione degli algoritmi e nell’accumulo dell’esperienza che consente di scegliere gli algoritmi più adatti.

Immagine tratta da https://ilmicroscopio.blogspot.com/2013_09_01_archive.html, blog del gruppo “Amici del Microscopio.” La foto mostra dei gruppi di fagocitazione con i ponti plasmatici.

E’ un modello pedagogico che chiamerei “tradizionale”, senza andare troppo a distinguere tra teorie diverse, perché mi sembra che sia presupposto implicito di molti discorsi, anche di quelli che non fanno riferimento ad una teoria precisa. Anzi, direi che sta dietro – sempre in maniera implicita – alle teorie dell’insegnamento di chi parla della difficoltà di trasmettere le conoscenze, di promuovere lo sviluppo di abilità e di valutare la presenza di competenze.

La formulazione in termini informatici invece l’ho inserita io, ma non mi sembra di aver forzato molto. Pensare uno studente in termini di computer è quello che si fa quando si parla di pensiero computazionale, sia che si voglia mettere l’accento sugli aspetti concreti della computazione (la calcolabilità, le risorse finite) sia che si pensi ad un elaboratore del tutto astratto che applica algoritmi per risolvere problemi.

In ogni caso: questo schema pensa l’apprendimento a partire dai meccanismi cognitivi superiori (memoria, elaborazione, selezione e applicazione), come fase necessaria perché l’individuo arrivi ad essere competente. L’apprendimento è un requisito per la performance. Il valore è la performance e l’apprendimento è una condizione. Le agenzie educative come la scuola sono la garanzia che l’apprendimento produca il risultato voluto – la competenza. La valutazione è principalmente la certificazione del raggiungimento del risultato finale.

Questa impostazione ha diversi punti oscuri: l’acquisizione delle conoscenze è basata sulla semplice esposizione? Come avviene la creazione degli algoritmi? Come si sceglie quale algoritmo applicare? Sono domande che la pedagogia lascia alla psicologia, secondo una piramide delle discipline accettata abbastanza universalmente.

E’ un modello che è costruito sulla cognizione, sulla memoria, sulla logica. Evidentemente presuppone un individuo normale, cioè che disponga di tutte queste funzioni superiori in maniera standard.

Non trovano posto, in questo modello, gli aspetti affettivi, la volontà, il bisogno. Se c’è un motore a muovere il tutto, è la società che definisce quali sono le competenze utili. E’ un vero “primum movens”, in cui esiste già in atto quello che negli studenti è solo in potenza.

E’ un modello che è costretto a procedere a ritroso nei casi in cui fallisce: se un individuo non è in grado di scegliere l’algoritmo giusto, o non si ricorda i passi, o i dati, significa, tornando indietro, che non ha appreso uno di questi elementi. Per questo occorre frammentare la formazione e inserire dei test che permettano subito di individuare l’elemento mancante.

Questo modello si sposa bene con una didattica basata su un sillabo e centrata sull’azione del docente. E’ il docente che sceglie i dati da registrare, gli algoritmi da costruire, e che mostra dei casi positivi di applicazione dell’algoritmo ai dati perché gli studenti siano in grado di riconoscere situazioni simili.

Naturalmente l’apprendimento riguarda solo l’individuo che apprende, nel senso che gli effetti sono misurabili da comportamenti esterni ma i meccanismi sono tutti interni alla mente dell’individuo. Se si potesse fare un apprendoencefalogramma si potrebbero vedere i dati e gli algoritmi ben allineati e pronti per il collegamento. La cosa più vicina che abbiamo immaginato a questo esame dell’interno dall’esterno sono appunto i test. Che sono, manco a dirlo, dei test individuali.

Questo modello riguarda infatti solo il singolo individuo. La didattica che ne risulta è prima di tutto una didattica individuale; tutte le tecniche rivolte al gruppo di individui sono fondate sull’esperienza, non sul modello che è stato descritto fin qui. Questo semplicemente perché sono gli individui che possono memorizzare dati, costruire algoritmi e applicarli, e non i gruppi. Si pensa l’apprendimento come fenomeno personale, individuale, al quale eventualmente si possono sovrapporre alcune tecniche di insegnamento relative al gruppo. Perché apprendere da soli è la regola.

Penso invece che sia vero il contrario: apprendere da soli non è la regola, è l’eccezione.

Apprendere in gruppo è normale. Norma nel senso della statistica: le modalità strutturate di insegnamento, per quel che ci racconta la storia della scuola, sono soprattutto di gruppo. Norma nel senso della scala: il gruppo fornisce dei riferimenti, delle possibilità di confronto: io sono qui, ma potrei essere lì insieme a quell’altro componente del gruppo. Quindi sto procedendo troppo piano, o troppo in fretta.

Il gruppo permette anche di apprendere per imitazione orizzontale, che è completamente diversa da quella verticale in cui il modello è lontano, competente per definizione. Il gruppo permette di elaborare algoritmi parziali e integrarli con frammenti costruiti da altri, alleggerendo il carico cognitivo. Il gruppo permette di confrontare la propria scelta di algoritmi con quella degli altri, e di fare così meta-apprendimento.

Insomma, apprendere in gruppo di solito funziona meglio. Le discipline sportive di squadra offrono tutte degli ottimi esempi di questa differenza: se l’allenatore punta solo alle eccellenze, e se gli stessi giocatori mirano solo al raggiungimento di obiettivi personali, la squadra ha un rendimento che dipende linearmente dalla somma delle competenze dei singoli. Se invece la squadra diventa il centro dei processi di insegnamento e apprendimento, e tutti investono del miglioramento della squadra, i risultati sono oggettivamente superiori.

Si tratta di considerazioni validissime, ma che partono appunto dalla pratica, non dalla teoria dell’apprendimento, e restano forse proprio per questo marginali nella prassi educativa scolastica. Inevitabilmente la parte relativa ai processi del gruppo è solo superficiale, incollata dall’alto. I processi di scambio di informazioni tra i partecipanti del gruppo sono forzati, scanditi da ritmi esteriori; sono considerati delle richieste a cui bisogna adeguarsi, non una necessità che viene dall’interno.

Facciamo resistenza a pensare in termini di analisi anziché di sintesi. Il gruppo lo costruiamo a partire dagli individui. Come se l’individuo fisico fosse più reale del gruppo.

Perché invece non si fonda la teoria dell’apprendimento sull’apprendimento di gruppo, per poi eventualmente ricadere su un caso particolare, in cui il gruppo è formato da un solo individuo, nei suoi diversi momenti? Perché non si progetta una didattica di gruppo, che ha davvero il gruppo come obiettivo, e non gli studenti? Perché non si immagina una valutazione di gruppo che non sia la media della valutazione dei singoli? Forse perché il modello di apprendimento che abbiamo in testa anche senza saperlo non è adatto.

Parecchi anni fa ho provato a disegnare un modello alternativo. Non tanto perché avessi le prove che questo che ho appena descritto non funzionasse, ma perché mi sembrava un modello debole, con troppi casi lasciati fuori come eccezioni. Non era centrato sull’apprendimento, ma sui risultati. Non rendeva possibile progettare del software educativo diverso da quello che circolava (eserciziari ripetitivi in cui si supponeva che le conoscenza dovessero essere apprese per semplice “esposizione” ripetuta). Anzi, questi esempi mi portavano a pormi la domanda: cosa rende un software davvero “educativo”? Il fatto di essere semplice, anzi banale? I colori sgargianti? La presenza di scoiattolini? I contenuti approvati da qualche centro di ricerca? Il test alla fine, con l’immancabile “Bravo!” ?

E difatti, sulla base di questo nuovo modello ho progettato e costruito, negli anni seguenti, un certo numero di software e ambienti “educativi”, ma in un senso diverso.

Il modello che ho immaginato, partendo certamente dalle letture di Dewey, Vygotskij e Bruner, ma senza cercare di derivarne formalmente una teoria, era molto semplice e in sostanza presentava l’interazione tra due elementi: il Soggetto e l’Ambiente. Il modello in questione descriveva l’apprendimento non come la condizione di qualcos’altro, ma a partire dal suo fine interno: il controllo di un ambiente. L’apprendimento è il processo nel quale il soggetto acquisisce il Controllo dell’ambiente. Di conseguenza, l’educazione consiste nell’assicurarsi che questa acquisizione si svolga in maniera efficace, attraverso la creazione di ambienti che sono progettati appositamente per cedere il controllo al soggetto. La valutazione è la parte del processo educativo che permette di rilasciare il controllo progressivamente, al momento giusto e nella misura giusta. Tutto qui. Ma da questi pochi concetti si possono trarre, a mio avviso, delle conclusioni interessanti soprattutto in termini di progetto didattico e di progetto valutativo, non solo legato ai software educativi.

Prima di tutto, si tratta di un modello che presuppone che l’apprendimento esista, che sia comune non solo ai cuccioli d’uomo, ma a tutte le persone, a qualsiasi età; e che non sia troppo diverso tra gli animali, scendendo via via alle specie meno complesso, e forse fino ai vegetali.

Non presuppone l’esistenza di facoltà cognitive superiori. Il che lo rende applicabile a molte più situazioni. Invece presuppone che ci sia un bisogno, una volontà, cieca quanto si vuole, che spinge il soggetto verso l’appropriazione dell’ambiente. Questa presupposizione è esterna al modello, ed è un modo diverso per descrivere un fatto dell’esperienza: c’è apprendimento quando esiste questa volontà. E difatti, ai cuccioli è quasi impossibile impedire di apprendere, e ai vecchietti quasi impossibile imporlo. L’educazione si svolge all’interno dei margini di questa disponibilità ad apprendere, altrimenti è destinata a fallire. Anche qui si tratta di un fenomeno evidente, ma che si spiega chiaramente: l’educazione è al servizio dell’apprendimento perché l’apprendimento è un processo naturale e l’educazione è solo il tentativo di rendere più efficace quel processo naturale all’interno di uno spazio artificiale.

Un aspetto importante del processo di apprendimento (come è descritto in questo modello) è che non solo il soggetto cambia, ma anche l’ambiente. Forse si tratta della differenza più grande rispetto al modello descritto sopra come tradizionale, ed è l’elemento che rende i due modelli incompatibili. Perché si possa dire che c’è apprendimento non basta andare a guardare nella testa del soggetto, ma occorre guardare gli effetti nell’ambiente. La modifica dell’ambiente è precisamente ciò che il soggetto si propone come fine nell’apprendimento. Non si tratta di una modifica necessariamente fisica (come non è necessariamente fisico l’ambiente): il passaggio del controllo dall’ambiente al soggetto significa che l’ambiente perde di libertà, di potere. Perciò non è pensabile, letteralmente, un apprendimento che non modifichi tanto il soggetto che l’ambiente.

È un modello filosofico, non psicologico. Non distingue tra dati e algoritmi, non si preoccupa di come vengono conservati gli uni e gli altri.

È un modello dinamico, non statico. Il controllo è il risultato della spinta reciproca di soggetto e ambiente; non è un terzo elemento ma solo il limite tra i due.

Resta anche qui da chiarire cosa significa controllo. Ma è un termine che ha un significato univoco: può valere, a seconda dei contesti, libertà, possibilità di agire, conoscenza, previsione, ….

Anche se non l’avevo specificato (o pensato) all’epoca in cui lo descrivevo, il soggetto non è necessariamente un individuo: può essere una parte di un individuo, oppure un gruppo di individui. È una descrizione di un processo partendo dai due elementi che si definiscono uno in relazione all’altro.

Questa possibilità di pensare il gruppo come soggetto di apprendimento a pieno titolo permette di studiare, progettare o verificare il processo anche al livello di gruppo e non solo di individuo. Si possono immaginare delle attività educative, cioè di supporto all’acquisizione del controllo del gruppo sull’ambiente. E, di conseguenza, si possono immaginare strumenti che mirano a fissare la posizione del limite tra soggetto e gruppo: una valutazione del gruppo come soggetto, e non (solo) dei singoli individualmente.

L’apprendimento del gruppo (non solo: in gruppo) non è la somma degli apprendimenti dei singoli. Il gruppo sa fare delle cose che i singoli non sanno fare, ma soprattutto il gruppo ha dei bisogni, degli obiettivi, una storia che sono diversi da quelli dei singoli.

Così l’ambiente di apprendimento del gruppo non è l’ambiente del singolo. E’ un ambiente collettivo dove si intrecciano le operazioni di tutti quelli che fanno parte del gruppo. E’ un ambiente che viene modificato dal gruppo, che si adatta ad esso (e non al singolo studente). E’ facile immaginare cosa significa pensare una piattaforma per l’e-learning in questi termini. In realtà, come si sarà capito, ADA è precisamente un ambiente di apprendimento di gruppo, è stata pensata in questo modo e funziona così. Senza questo modello non si capisce il senso di tante funzionalità, come quella che permette di modificare il contenuto di un corso da parte dei partecipanti del gruppo.

Ma quello che mi interessa soprattutto è che partire dal modello citato sopra permette di derivare una didattica coerente per il gruppo, senza dover aggiungere tecniche, suggerimenti, semplicemente perché l’esperienza ne ha confermato l’utilità. E’ la differenza tra una profilassi basata su una teoria biologica dei microorganismi e una profilassi basata sull’esperienza: fino ad un certo punto funzionano entrambe, ma la seconda finisce per dare origine ad una serie di pratiche magiche tramandate sulla base dell’autorità, alla nascita delle scuole e all’apparizione dei guru.

Basta coi dati, ancora più dati

Dati come algoritmi: ne parlano tutti, a qualsiasi proposito, a volte anche confondendoli. E si capisce, perché gli algoritmi senza dati girano a vuoto. Si legge e si ascolta sempre più spesso “I dati ci dicono che”, “Andiamo a vedere i dati”, “Ci vogliono nascondere i veri dati”. Ma a forza di citarli come risposta finale a tutte le domande, anche la pubblica amministrazione ha capito che si possono usare a fini di comunicazione.

Dalla sindaca di Roma che traccia le biciclette sulle piste ciclabili al software della sottosegretaria Floridia che “calcola il flusso dei tragitti che gli studenti fanno per venire a scuola”, sembra che la nuova tendenza non sia quella di aumentare l’apertura dei dati esistenti, ma di aumentare i dati raccolti da parte della PA.

Tracciare i movimenti e gli accessi, registrare i dati prodotti da azioni umane, è il nuovo dispositivo che da solo certifica l’approach modern e anche smart di una governance near ai citizens. Prima ancora di dire qual è il progetto generale e come quei dati verranno utilizzati, si annuncia la loro raccolta. Come se questa da sola fosse sufficiente; come se ogni raccolta non contemplasse un filtro e una trasformazione; come se i dati si potessero usare senza archiviarli, con il rischio che qualcuno se ne impadronisca (come è successo più volte).

Sul versante opposto, dopo aver richiesto a gran voce la pubblicazione dei dati del COVID, adesso le voci si alzano contro la registrazione dei dati (per esempio, contro il Green Pass) a volte anche senza sapere esattamente quali dati vengono raccolti, da chi vengono trattati, dove vengono archiviati e per quanto tempo. Cosa dice, esattamente, il QR Code? Anzi: cosa ci nasconde?

L’impressione è che da entrambe le parti ci sia superficialità e che tutto si svolga intorno alla parola “dati” più che intorno al concetto di raccolta di dati. Raccogliere i dati è segno di attenzione al territorio oppure è un furto di identità da parte di un sistema sempre più Grande Fratello?

Dal lato della PA, i proclami sono sempre molto opachi sul come quei dati potranno essere utili a tutti i cittadini, su come verranno protetti ora e i futuro, su quali flussi seguiranno. E’ facile pensare che ogni passo nella direzione del monitoraggio dei cittadini (o degli studenti) possa essere un precedente per altri passi più invasivi. Se un Comune può monitorare i passaggi delle biciclette (che per il momento non hanno una targa, e quindi non possono essere ricondotte ad un proprietario), cosa impedirà domani di costruire un Bicivelox che permetta di aggiungere entrate nella casse del Comune stesso? Se vengono tracciati i percorsi casa-scuola degli studenti, cosa impedisce di farlo anche per i docenti? Eccetera. Sono domande che sorgono spontanee nel momento in cui non c’è la necessaria trasparenza sull’uso di quei dati, sulla base legale, sui limiti non solo tecnici.


L’effetto di questo aumento della presenza dei dati come salvatori o come diabolici si mostrerà presto, a mio parere, in un movimento intellettual/popolare di ribellione all’acquisizione di dati. Un movimento che si presenterà come unito per poi spaccarsi in due ali francamente mosse da interessi diversi.

La parte intellettuale sosterrà che l’acquisizione dei dati (o la trasformazione in dati di azioni) è la nuova forma di creazione di valore a partire dalla vita delle persone. Che sia una processo gestito da grandi soggetti privati o da soggetti pubblici, e indipendentemente dalla finalità, si chiederà che nessun modello di machine learning possa essere addestrato sulla base di comportamenti ad alto valore professionale.

Un caso particolare di questa critica riguarderà i professionisti che vedranno scomparire il loro valore e sul mercato man mano che i dati del loro comportamento professionale saranno accumulati e utilizzati per il training di modelli di Machine Learning. Traduttori, programmatori, giornalisti per primi, poi in futuro docenti, medici, avvocati, architetti si renderanno conto che vanno incontro alla scomparsa come i panda. Anche l’università, e la formazione professionale in generale, si accorgeranno finalmente che rischiano un radicale ridimensionamento.

La parte popolare si limiterà a invocare il diritto all’opacità di ogni cittadino di fronte allo Stato, a difendere una generica libertà individuale. In un’unica rivendicazione verranno inclusi i dati fiscali, quelli produttivi, quelli formativi. Sarà facile per i movimenti politici che già fanno leva su questo tipo di istanze libertarie (nel senso della libertà del singolo individuo) cavalcare anche questa rivendicazione all’interno di un progetto politico liberista che punta a ridurre la presenza dello stato nella società.


Penso che questi movimenti vadano distinti, e le loro motivazioni analizzate con chiarezza. Se è vero che i dati sono il nuovo petrolio, nel senso che l’estrazione dei dati dalle azioni delle persone è la fonte principale di valore, questo valore va rivendicato sempre, soprattutto quando su quella base si costruiscono servizi che vanno a sostituire professioni avviando un percorso senza ritorno di rinuncia alla conoscenza teorica. Ma si tratta di un modo di raccogliere e usare i dati che è proprio primariamente di un numero ristretto di grandissime aziende, e che sta funzionando da modello e attrattore anche per le altre. Questo non ci esime dal cercare di ottenere da queste aziende una forma di autocontrollo; ma possiamo anche cominciare a pensare di usare meno servizi “gratuiti”, cioè pagati con i nostri dati, e usarne di nuovi a pagamento che però diano maggiori garanzie di trasparenza. Piccoli passi che ci aiuterebbero anche ad uscire dal sostanziale monopolio di servizi digitali in cui ci troviamo ora.

Per questo è necessario che la PA sia trasparente per quanto riguarda i percorsi di questi dati: perché anche se i suoi scopi sono diversi, la maniera di raggiungerli potrebbe implicare un passaggio (a costi limitati o addirittura senza costi) proprio per uno o più di questi fornitori di servizi.

Non si tratta tanto di proteggere il diritto del cittadino a nascondere alla PA i propri comportamenti, magari sul bordo dell’illegalità, ma di sancire il diritto di ogni cittadino, nei confronti della propria PA, di sapere cosa viene registrato, a chi viene consegnato e per quali usi, ed eventualmente limitare questi usi, così come si è fatto nel caso dei dati personali dal GDPR. Ma se il GDPR era nato per proteggere le economie dei Paesi europei contro la concorrenza di altri Paesi un po’ più leggeri nella gestione dei dati personali, stavolta si tratta di proteggere i diritti prodotti dai cittadini stessi, che non sono dati personali ma appartengono comunque alla sfera del valore e non solo a quella della tecnica.

Come per quanto riguarda i dati personali, la via più facile sarebbe quella di anonimizzare i dati, in modo che non sia possibile risalire al cittadino da cui sono stati prodotti. Purtroppo è una strada scivolosa e difficile. Facciamo un esempio: l’anonimizzazione può essere applicata per default oppure solo su richiesta del cittadino.

Nel primo caso, siccome i dati hanno senso soprattutto quando vengono incrociati, bisogna costruire un cittadino-doppio, un avatar anonimo su cui convergano tutti i dati raccolti. Questo doppio, identificato da un codice univoco all’interno della PA, non potrebbe davvero perdere il legame con il cittadino reale, altrimenti non sarebbe più possibile collegare i nuovi dati raccolti a quelli precedenti. Quindi il problema si sposta semplicemente dai dati al codice, dal tesoro alla chiave.

Nel secondo caso, quello di un’anonimizzazione su richiesta esplicita da parte dei cittadino, sorge il problema della propagazione a catena dell’anonimizzazione su tutte le repliche dei dati. Senza un protocollo che impone di tenere traccia di ogni replica, di ogni accesso in copia, sarebbe evidentemente impossibile assicurare il cittadino che tutte le copie sono state anonimizzate.

Insomma, in pratica i dati prodotti da un cittadino e quelli identificativi del cittadino restano connessi. E di qui il problema.


Spesso si dice che siccome le persone hanno già ceduto la maggior parte dei propri dati ad aziende private (l’uso della carta di credito, l’uso del telefono, gli spostamenti fisici, la navigazione web e in generale l’uso di servizi via Internet, i propri interessi e preferenze, la propria rubrica) non ha senso preoccuparsi dei dati forniti alla PA. E’ il tipo di critica che si riceve quando si parla di protezione dei dati all’interno di un social network. Fa venire in mente lo scrutatore non votante che “si fa la doccia dieci volte ma ha le formiche sulla tavola”.

Credo invece che i discorsi vadano tenuti separati. Da una parte è possibile, anche se difficile, condurre una vita senza cedere i propri dati ad aziende private, nel momento in cui si riesce a rinunciare ai servizi, a pagamento o gratuiti che siano, che queste offrono in cambio dei dati stessi. Si può vivere senza usare Google Maps, senza Gmail, senza Android, senza Windows e naturalmente senza social network centralizzati. Si possono cercare alternative, gratuite o a pagamento. Si possono fornire dati imprecisi, contraddittori o parziali.

Ma non si può vivere senza carta di identità, senza pagare le tasse, senza un fascicolo sanitario. In un caso c’è un contratto esplicito, accettato, che prevede uno scambio più o meno trasparente di dati contro servizi. Nell’altro caso, il contratto tra la persona e lo stato inizialmente non viene nemmeno firmato dalla persona, ma dai genitori al momento dell’iscrizione all’anagrafe. Quel contratto non specifica cosa lo stato possa fare in seguito con i dati del cittadino, ma fa riferimento alla Costituzione, alle Leggi statali e regionali. Da quel contratto si può uscire veramente solo rifiutando del tutto ogni nazionalità, o scegliendone una diversa.

Per questo è importante che la PA sia in grado di esporre un protocollo di raccolta dei dati che sia chiaro, inattaccabile, funzionale.


Una delle situazioni in cui questo problema potrebbe presentarsi improvvisamente (anche se le premesse sono presenti da anni) è quello della raccolta dei dati nella piattaforme di DaD, o di e-learning. Il tracciamento del comportamento degli studenti (non solo i voti o gli accessi, ma la navigazione fine, la consultazione dei link e degli allegati, la scrittura di testi, la comunicazione orizzontale) può essere più o meno spinto, e può essere più o meno usato a vantaggio degli studenti stessi, per esempio per arricchire la valutazione con dati che descrivono il comportamento degli studenti (o di un gruppo di studenti) in tempo reale, senza bisogno di aspettare il momento del test. Dati che permettono di confrontare quello che sta succedendo con quello che, in situazioni simili, ci si attende che succeda. Lo stesso potrebbe succedere, a breve, relativamente alla registrazione dei dati dei docenti: accessi, comunicazione con gli studenti, creazione di contenuti aggiuntivi, valutazione.

Da un lato è evidente che questi dati potrebbero essere usati per aiutare i docenti e i corsisti, o anche gli autori di contenuti, o i progettisti delle piattaforme; dall’altro, questi dati potrebbero essere usati per selezionare gli studenti ancora prima del termine del loro corso di formazione (come nel caso di alcuni MOOC), oppure per controllare il lavoro dei docenti e sanzionarne comportamenti inadeguati. O infine, e qui torniamo a quanto detto sopra, per costruire un modello di docente che sia in grado di fare lezione, correggere gli esercizi, assegnare voti.

Anche in questo caso occorrerebbe sbrigarsi a regolamentare cosa può essere raccolto, con che finalità, per quanto tempo.

Alcune ipotesi di lavoro.

1. Si può chiedere ad una PA di fornire un bilancio tra i servizi forniti grazie all’acquisizione di dati dei cittadini e la necessaria sottrazione di privacy dei cittadini stessi. Ci saranno casi in cui i vantaggi superano gli svantaggi, ed altri in cui l’acquisizione di dati non è giustificabile. Un bilancio che dovrebbe essere pubblico, facilmente leggibile dal maggior numero di cittadini, aggiornato frequentemente.

2. Si può chiedere ai poteri legislativi di stabilire, una volta per tutte, che i dati prodotti dalle azioni dei cittadini (come quelli che ne definiscono l’identità) vengano riconosciuti come di proprietà dei cittadini stessi. Non è un passo semplice, perché i dati non sono oggetti fisici che una volta ceduti non sono più di proprietà del precedente proprietario. I dati di cui parliamo non hanno nemmeno le caratteristiche dei prodotti dell’ingegno, che devono essere originali. Un’altra difficoltà deriva dal fatto che questa richiesta potrebbe andare in direzione opposta, almeno apparentemente, a quella dell’apertura dei dati pubblici. Andrebbe applicata una licenza permissiva ma con caratteristiche speciali: per esempio, dovrebbe essere possibile tracciare l’uso dei dati e rendere possibile la propagazione del blocco del loro utilizzo.

3. Questa legge dovrebbe anche stabilire che il trattamento di quei dati deve avere come finalità primaria il vantaggio dei cittadini e non del sistema organizzativo. I cittadini, attraverso i loro dati, dovrebbero sempre essere considerati un fine e mai un mezzo, come reciterebbe la versione moderna del principio regolativo kantiano.

Quali cittadini? Solo quelli a cui appartengono i dati, o tutti? E’ evidente che scienze come l’epidemiologia hanno bisogno dei dati di tutta la popolazione per provare a fare ipotesi significative.
Insomma, i principi non bastano, ci vuole ancora tanto lavoro. Ma sarebbe ora di iniziare a farlo.