Tecnologie digitali per lo sviluppo umano?

Dialogo tra Marco Guastavigna e Stefano penge (o il contrario)

Indice:

Attenzione: se volete scaricare una versione leggibile offline di questo testo, potete andare qui.


Postfazione (settembre 2020)

Dopo aver completato la prima bozza del nostro lavoro, l’abbiamo fatta circolare tra un po’ di persone che sapevamo interessate e critiche; anzi, le sapevamo critiche ma interessate all’uso delle TIC nel campo della conoscenza (e del lavoro, perché no?) in funzione di uno sviluppo caratterizzato da emancipazione, equità, sostenibilità. Questo è infatti il nucleo del nostro ragionamento, che pensiamo sia particolarmente importante mettere in circolazione ora, dal momento che al periodo di emergenza non è seguita una vera e propria elaborazione culturale ed etica, ma piuttosto la prosecuzione esasperata della di per sé sterile contrapposizione assoluta tra “digitale-sì” e “digitale-no”.

Ci sono tornate indietro varie osservazioni, sulla base delle quali abbiamo operato alcuni interventi e scritto queste righe, che forse avremmo potuto intitolare “Confessioni”, o qualcosa di simile. Abbiamo, per esempio, inserito al fondo del testo un breve glossario a proposito delle istituzioni che hanno agito negli ultimi decenni nel campo delle TIC a scuola: non potevamo infatti presumere che esse fossero conosciute nemmeno dagli addetti ai lavori, in particolare dai più giovani, perché non tutte sono sopravvissute al percorso. Abbiamo preso atto che il nostro dialogo – questa è la forma che abbiamo deciso di dare a riflessioni che un’esposizione tradizionale avrebbe rischiato di rendere ancora meno sopportabili – avviene tra due soggetti che presentano delle sfumature diverse, ma che sul filo rosso del ragionamento sono (troppo?) d’accordo. Non ci contrapponiamo mai, non polemizziamo, nemmeno neghiamo l’uno le tesi dell’altro.

Cerchiamo invece e volutamente di convergere su alcuni punti e prospettive culturali, etici e operativi che ci sembrano importanti per ribaltare la posizione – destinata a rimanere subalterna alla cultura e all’agenda degli attuali decisori – di chi si rinchiude nella semplice negazione e nell’inerte rifiuto del pensiero mainstream sull’uso delle tecnologie a scuola, che considera l’innovazione strumento di competizione e, di conseguenza, l’istruzione come erogazione, pratica e verifica selettiva di skills adattive allo scenario attualmente prevalente. Abbiamo ripensato a come abbiamo usato uno strumento potente e tipico dello scrivere su supporto dinamico e aperto come quello digitale, i link. In linea generale, li abbiamo utilizzati come “citazioni attive”, anche di materiali nostri, non solo per testimoniare un percorso pluridecennale che ci ha portato dove siamo ora (senza alcuna intenzione di restare fermi), ma anche per evitare di riscrivere ciò che avevamo già esposto altrove.

Marco Guastavigna e Stefano Penge


Introduzione

Estate 2020. Ci guardiamo in faccia – via monitor, of course – e ci rendiamo conto che ambedue siamo in stagione di ripensamenti, ma che entrambi non abbiamo intenzione di mollare: dobbiamo trovare una strada o (meglio) più sentieri per dare un senso a ciò che ha connotato la gran parte della nostra attività intellettuale, l’uso dei dispositivi digitali per migliorare la didattica. Meglio se virtuoso, rivolto cioè non all’innovazione fine a se stessa e alla competizione, ma all’aumento del benessere di tutt* e di ciascun*.

E decidiamo di farci reciprocamente un regalo, un percorso di scrittura, attraverso domande, per quanto possibili stranianti e provocatorie. Ciò che segue è l’intero lavoro.

Dialogo

MarcoG

Eccoci ancora qui a ragionare insieme, come abbiamo fatto a partire almeno da…

StefanoP

Dal 1993, la data di uscita di Io Bambino Tu Computer. Erano gli anni in cui pensavo ingenuamente che un software educativo avrebbe cambiato il mondo.

MarcoG

Vero, abbiamo cominciato quell’anno lì; poi ci siamo incrociati più volte sull’uso delle mappe concettuali e oggi eccoci di nuovo a cercare di capire il “nuovissimo” di turno. Ovvero la didattica dell’emergenza, ovvero il distanziamento forzato dell’istruzione, che ha costretto molti a ripensare il proprio approccio culturale e cognitivo e le proprie categorie concettuali a proposito del “digitale”.

StefanoP

Infatti. Vanno ripensate e soprattutto criticate perché spesso sono categorie manicheiste, e questo non è mai una buona cosa. Sono convinto che sia necessario, soprattutto ora, provare a indicare delle vie alternative, senza accettare la banale opposizione tra “il digitale è buono” e “il digitale è cattivo”.

Anzi, sono convinto che si debba partire con il rifiuto della forma stessa che assume questa opposizione. C’è un soggetto e c’è un predicato, e in più si tratta di un giudizio di valore.

MarcoG

Lo vuoi insegnare proprio a me?

StefanoP

No, no, abbi pazienza. Cominciamo dal soggetto, il digitale: esiste davvero una cosa così? Ovvero: le caratteristiche delle esperienze che facciamo utilizzando i computer grandi e piccoli, locali e remoti, sono talmente specifiche da permetterci di parlarne come se fossero una sola cosa, e di opporle alle altre esperienze?

Il secondo aspetto che pone problemi in questa opposizione è il predicato: il digitale è buono o cattivo? Ma che significa buono? Buono per qualcuno, per tutti? Buono per uno scopo specifico, per tutti gli scopi? Buono per oggi, per domani, per sempre?

Vista un po’ da vicino, mi pare, questa opposizione non regge: il digitale è fatto di tante esperienze diverse, e non si riesce a riassumerle tutte in un soggetto unico che si possa giudicare e accettare o rigettare in toto. Di qui la necessità dell’analisi e della riflessione, meglio se fatta a più cervelli e più mani. Ed è necessario che a valle della riflessione si possano fare delle scelte, a livello sia individuale sia di gruppo: questo digitale va bene per questo uso, quest’altro invece no. Forse a te sembrerà una constatazione ovvia, ma per me non lo è.

MarcoG

Infatti. Ai tempi in cui abbiamo iniziato a frequentarci mi sembravi più tecno-ottimista. Per altro, non è la prima volta che ti capita di cambiare idea, no?

StefanoP

No, e non me ne vergogno. Una volta pensavo che il digitale fosse tutto buono. Pensavo che le caratteristiche del digitale fossero talmente potenti da generare un cambiamento obbligatorio nella maniera di creare e utilizzare la conoscenza. Per esempio, pensavo che il fatto che il costo (cognitivo, ma anche tecnico e quindi economico) delle operazioni di scrittura e lettura fosse sostanzialmente identico avrebbe portato ad una parità di ruoli tra scrittore e lettore, e quindi ad un cambiamento nella maniera di pensare l’autore, l’autorialità, l’autorità. Il fatto che la rappresentazione digitale di un testo, o di una musica o di un quadro, potesse essere facilmente, e indefinitamente, modificata, copiata, trasformata mi portava a immaginare infiniti modi di esercitare l’immaginazione creativa. Questi due fatti (il costo paragonabile tra scrittura e lettura e l’infinita modificabilità di un documento) dipendono da come è stato immaginato e realizzato il digitale; ma la loro interpretazione non era affatto scontata. La forma di determinismo tecnologico di cui in qualche modo soffrivo mi portava a pensare che ci fosse un solo modo di sfruttare le potenzialità del digitale, che nella mia testa era il migliore: quello di permettere a tutti gli utilizzatori di diventare produttori, innescando un circolo virtuoso per cui ogni prodotto sarebbe potuto diventare materiale di partenza per altri prodotti e ogni ambiente sarebbe potuto entrare a far parte di ambienti più ricchi e complessi.

In sintesi, pensavo che la novità tecnica portasse con sé l’innovazione in maniera quasi automatica, e – secondo punto, più importante – pensavo che l’innovazione fosse comunque positiva, cioè indirizzata ad uno sviluppo delle persone, a partire dai bambini che erano il “pubblico” a cui pensavo praticamente. Non tenevo conto, per inesperienza, degli interessi dei singoli e dei gruppi professionali che a volte possono prevalere su quelli di tutti. Non mi ero soffermato sulle difficoltà, cognitive e affettive, delle competenze necessarie. Pur conoscendo la storia dell’informatica, che è una storia anche di imprese e prodotti, di marketing, mi ero concentrato solo sulle potenzialità che qui in Italia non erano state sfruttate. Non tenevo conto della possibilità che quei fatti tecnologici potessero essere utilizzati o no, piegati in una direzione o in un’altra. Su questo torneremo più avanti, immagino.

Dopo quasi trent’anni di tentativi di creare ambienti di trasformazione digitale (cioè software educativi) penso di aver raggiunto una consapevolezza banale: non è sufficiente che una cosa sia tecnicamente possibile perché venga anche realizzata. Tutto quello che pensavo di aver capito delle caratteristiche del digitale resta probabilmente vero, aiuta a capire le potenzialità, ma non basta a garantirne uno uso sensato e rivolto allo sviluppo di tutti.

Del resto, cambiare idea ed essere anzi consapevoli di poterlo fare sono risorse intellettuali. A te non capita mai?

MarcoG

Anche nella mia storia personale con il “digitale” (più se ne parla più risulta sconosciuto!) ci sono momenti di profonda trasformazione della prospettiva.

Inizialmente, ho colto soprattutto quelli che mi sembravano gli aspetti positivi e più promettenti, in particolare la plasticità del supporto – e qui ti devo da sempre parecchio – come spazio operativo e cognitivo a vocazione propedeutica, in particolare per la scrittura di testi, e le potenzialità della organizzazione ipertestuale di senso e significato in rapporto alla complessità del sapere umano.

Ci torneremo, anche perché si tratta di aspetti tuttora sottoutilizzati, sul piano non solo didattico, ma anche professionale e intellettuale.

Qualcosa ha cominciato a cambiare nella mia testa a inizio millennio, quando ho cominciato a intravvedere lo spettro del Pensiero (tecno)Pedagogico Unico, di matrice istituzionale: incubatore principale ANSAS-Indire con la rete degli ex IRRSAE, poi IRRE, perno organizzativo e fulcro dei finanziamenti il Ministero, anche nelle sue articolazioni regionali. Sulla base di un’adesione superficiale e spesso posticcia al paradigma costruttivista, presentato in forma assoluta come strumento per rimediare ai molti limiti della scuola, sono state condotte numerose campagne massive di formazione, in genere legate alla distribuzione di strumenti, per esempio le LIM, e/o all’infatuazione per il marchingegno elettronico del momento: il caso più spassoso i learning object, passati in breve tempo dagli altari della novità alla polvere del fallimento. Sarebbe per contro interessante ricostruire bene le vicende di due istituti – l’Osservatorio Tecnologico del Miur e l’ITD CNR – che si sono invece caratterizzati per serietà della ricerca e senso critico. In parallelo, l’editoria privata tradizionale – probabilmente perché incapace di definire un modello di business nel campo dei prodotti digitali, in particolare per quanto riguarda la versione elettronica dei libri – si è rapidamente adeguata ed ha adottato l’intera gamma degli slogan e delle mode (making, robotica, internet of things,gaming e – peggio! – gamification, storytelling, tinkering e così via) via via messi in campo dalla forma culturale che caratterizzava la governance mainstream, nel frattempo passata dalle campagne di diffusione massiva al modello dei bandi di concorso tra le istituzioni scolastiche. Al centro di tutto questo, non un riferimento pedagogico vero e proprio, ma il – deleterio e fallimentare, come vedremo – concetto di innovazione, che era alla base di un processo culturale e organizzativo che si configurava sempre più come un “dispositivo” di potere capace di influenzare il sapere e le scelte in proposito.

In questo contesto, ho cominciato a maturare opinioni sempre più differenti da quelle precedenti. Non una vera e propria abiura, ma la consapevolezza che era (ed è) più che mai necessario svincolarsi e svincolare colleghi e studenti dall’entusiasmo acritico e da quel determinismo ottimistico di cui parli anche tu.

Più o meno per caso, poi, qualche anno fa mi è tornato in mano un volume che avevo comperato e mai letto, “Gli algoritmi del capitale: Accelerazionismo, macchine della conoscenza e autonomia del comune”, reperibile anche in rete. Questo libro è stato la prima di una serie di letture che mi hanno fatto scoprire prima e approfondire poi l’esistenza di numerose voci fortemente alternative e – appunto – radicalmente critiche di ciò che, con sfumature di significato importanti ma per ora trascurabili, viene chiamato “capitalismo digitale” o “capitalismo cognitivo” e, ultimamente, “capitalismo di sorveglianza”. L’elemento comune di tutte queste posizioni (significativamente poco o per nulla considerate dall’accademia nazionale) sono l’individuazione, l’analisi e la messa in discussione etica e civile, e quindi politica, del massiccio, globale e quotidiano processo di appropriazione della conoscenza da parte delle piattaforme multinazionali di intermediazione (Google, Facebook, Uber. Amazon e così via). Questi giganteschi dispositivi digitali non solo hanno accumulato e accumulano immensi profitti attraverso il ciclo di produzione e sfruttamento dei Big Data, ma – per quanto riguarda gli studenti e molti insegnanti e dirigenti scolastici attraverso il concetto di innovazione – sono riusciti a costruire una rappresentazione del mondo in cui le skills necessarie ad adeguarsi al loro funzionamento sono diventate una dote operativa e culturale imprescindibile, di cui l’istruzione pubblica deve farsi carico o almeno palestra di esercizio.

StefanoP

Anche secondo me le strategie delle piattaforme capitalistiche, esplicite o meno, vengono da lontano. Oggi si propongono come ambienti di intermediazione digitale tra persone: dai motori di ricerca generici e specializzai ai social network system, ai sistemi di condivisione e distribuzione di media. Ma non sono strategie improvvisate, derivano dalla forma capitalista di produzione di valore, ma anche dalla storia dell’informatica e dal suo scopo generale di creare una versione del mondo più trattabile dell’originale. E a monte c’è la distinzione pubblico/privato, quella che in pratica è negata dalle aziende come Google che si presentano come superiori agli Stati nazionali. Lo fanno assumendo alcune caratteristiche del pubblico: il motto di Google (“Don’t be evil”) non suona come un motto aziendale. Forse, anzi, non dovremmo parlare di azienda, perché ci fa immaginare un soggetto semplice, con delle persone che prendono decisioni limitate che hanno per scopo il profitto immediato. Il discorso è troppo ampio per affrontarlo compiutamente qui, ma va almeno citato: nel contesto statunitense che il privato si sostituisca allo stato è visto come non solo logico ma anche come positivo. Nel nostro contesto storico e sociale, un po’ meno; ma è in quella direzione che stiamo andando?

MarcoG

Temo proprio di sì. Anche se in questo processo il distanziamento della didattica è stato un avvenimento molto significativo, perché ha segnato, almeno a mio giudizio, il crollo epistemologico del concetto dominante quest’ultimo periodo della scuola, l’innovazione, e di tutti i suoi derivati, in particolare la cosiddetta didattica innovativa. È vero che vi è stato (soprattutto nei primi giorni del lockdown della didattica erogata e interagita in prossimità) addirittura chi ha avuto il coraggio di sostenere che il nostro sistema scolastico era di fronte a una straordinaria opportunità – appunto – di innovazione, ma questa posizione ha rivelato quasi immediatamente la propria assoluta insensatezza. Lo rendevano concretamente inapplicabile troppi e subito evidenti fattori: diffuso deficit di dispositivi adeguati alle esigenze comunicative e debolezza o mancanza delle connessioni alla rete in alcune zone del Paese e/o fasce sociali. Per non parlare dello smarrimento delle famiglie e degli insegnanti a fronte all’assenza di strategie e alla mancanza di pratiche per venire incontro ad allievi in particolari condizioni personali, della dispersione delle relazioni e della comunicazione e così via.

Non a caso – anche se quasi nessuno ha avuto il coraggio di parlare in modo aperto di “crisi” organizzativa e metodologica – è prevalso l’approccio fondato sull’emergenza. La scelta di adoperarsi per ridurre il danno indubbiamente determinato dalla distanza tra pratiche di insegnamento e allievi, oltre a essere più congruente con la realtà, era accettabile anche da parte di chi fino a quel momento aveva sostenuto posizioni di assoluto “tecno-snobismo” nei confronti della comunicazione su base digitale, che così ha potuto avviare una qualche interazione con i propri allievi. Purtroppo, non senza che alcuni cantori della “centralità dei docenti” nei percorsi di apprendimento attivassero la retorica della generosità professionale e personale.

Del resto, affrontando la questione su di un piano più generale – mi verrebbe da dire teorico – di fronte all’imperante necessità di ricostruire e di governare rapporti comunicativi efficaci, non poteva certo funzionare la visione più diffusa dell’innovazione e dei suoi derivati, ovvero la soluzione di continuità, la disruption a vocazione competitiva, vista come rottura e come adattamento necessitato, in una sorta di darwinismo tecnocratico. Questo approccio, per altro, ha orientato il Piano Nazionale per la Scuola Digitale, che ha costruito un sistema di istruzione pubblica a fortissime differenziazioni interne, fatto di scuole-polo, con infrastrutture potenti e centri di formazione, sempre più contrapposte a istituti emarginati, stabilmente a rimorchio, ripetutamente perdenti nei bandi e nelle altre iniziative concepite sul modello della gara, del “talent”, impostazione che per altro ha caratterizzato e funestato l’autonomia scolastica su vari altri piani, sia logistici sia culturali.

Non è di nuovo un caso che fosse diffusa la locuzione “fare innovazione” o che si parlasse, per esempio, di ambienti “innovativi” – e non innovati. Queste scelte lessicali non sono un vezzo, ma il modo di assegnare deterministicamente al “nuovo” – in particolare se “digitale” – il ruolo di fine anziché quello di mezzo. Nella scuola, insomma, era dominante la visione tecnocratica, che – come abbiamo già affermato – sostituisce all’idea di progresso e di miglioramento quella di rottura. La mancanza di una vera declinazione dei bisogni di apprendimento e di un’autentica analisi delle potenzialità delle tecnologie digitali dal punto di vista operativo, cognitivo e culturale ha fatto il resto, consentendo anzi, nelle fasi precedenti il distanziamento forzato, che non vi fosse alcuna autentica valutazione delle implicazioni effettive delle “innovazioni” introdotte.

Tornando agli aspetti concreti della (prima?) fase emergenziale, non è un caso che molti insegnanti, soprattutto nelle realtà più complicate, abbiano scelto di utilizzare il “digitale” che conoscevano già e che quindi erano in grado di controllare e di dotare rapidamente di senso e di scopo. Penso all’adattamento di WhatsApp come strumento di interazione con i genitori e quindi all’indicazione di compiti da eseguire. Penso alle videoconferenze (potenzialmente gestibili da più relatori) utilizzate per riprodurre il modello della lezione frontale, uno-a-molti, per altro utilizzatissimo anche in ambito universitario. Penso agli interrogativi su come condurre le verifiche, intervenuti ad onta delle paternalistiche indicazioni emesse dopo la fase della spontaneità: i social hanno spesso rievocato modalità di interrogazione davvero grottesche, volte ad impedire suggerimenti ed altri trucchi da parte degli studenti, dal loro canto attivissimi in forme di resistenza all’impegno (dalle webcam in stallo perenne, al pauperismo dei “giga”).

StefanoP

Questa delle “nuove tecnologie educative” è una storia vecchia. Un investimento, economico e umano, su qualcosa il cui valore sta solo nell’essere nuovo. Il vocabolario online Treccani dice che innovare significa mutare uno stato di cose, introducendo norme, metodi, sistemi nuovi. Se è questo il senso, allora la didattica innovativa non dovrebbe essere solo nuova, ma aprire un nuovo corso storico. Supponendo a) che il vecchio non funzioni bene, e b) che il nuovo sia migliore. Qui non entro nella discussione per il semplice motivo che questa novità è vecchia di decine e decine di anni, e personalmente sono stato coinvolto negli ultimi trenta nel tentativo di fare qualcosa di educativo con i software; quindi per me di nuovo, nel digitale, non c’è proprio nulla. Ma sono d’accordo con te che è nuovo il contesto emergenziale, sono nuove l’attenzione e le discussioni che improvvisamente si sono accese sulle tecnologie applicate alla didattica. Cosa è successo stavolta? Che i docenti si sono visti costretti ad usare computer, telefoni, webcam, microfoni per fare lezione. Hanno dovuto capire come si fa a tenere alta l’attenzione degli studenti, a individuare lo studente che bara, il genitore che si impiccia troppo, attraverso la ristretta banda informativa di un audio-video. Hanno dovuto cercare e chiedere aiuto ai colleghi per trovare strumenti e servizi gratuiti per la valutazione, contenuti già pronti per sostituire il loro lavoro quotidiano con la lavagna e la voce. E per la prima volta, questo bagno non ha riguardato solo una piccola parte del corpo docente, ma proprio tutti, dalla scuola dell’infanzia all’università. Chi aveva seguito dei corsi di formazione ha scoperto che erano invecchiati precocemente, chi non l’aveva fatto ha potuto lamentarsi di non essere stato messo in condizione di lavorare.

Sono ricostruzioni chiaramente parziali e un po’ ridicole, mi rendo conto. Le faccio solo per giustificare il fastidio con cui non solo quel modo di usare il “digitale”, ma qualsiasi modo viene percepito adesso dalla maggioranza dei docenti, e direi anche degli studenti e dei genitori. Basta didattica a distanza, basta computer, torniamo al porto tranquillo della presenza e della prossimità. Non perché sia meglio, ma solo perché lì le acque sono placide. Bene, ma non è possibile. E quindi? Usiamolo facendo finta che non ci sia? Ignoriamolo, come un parente poco presentabile? Questa trasparenza da lavoratore domestico è quella che in fondo vorrebbero i grandi venditori di servizi digitali: un maggiordomo che c’è ma non si vede, e piano piano diventa indispensabile anche per legarsi i lacci delle scarpe.


Torna su

MarcoG

A voler essere pignoli, queste raffigurazioni che stiamo facendo – che speriamo esagerate – testimoniavano a loro volta l’esigenza di continuità perfino nell’ambito di relazioni fondate su sfiducia e disistima.

Le pratiche didattiche innovative, dal canto loro, hanno spesso mostrato tutta la propria intrinseca debolezza. Per esempio, si sono rivelati del tutto inutili a fronteggiare l’emergenza i “saperi aggiuntivi della modernità”, in particolare coding e il pensiero computazionale. Ancor più cocente la sconfitta della multimedialità – intesa come fruizione di audio e soprattutto di video – sostitutiva della testualità, una forma di provvedimento dispensativo davvero subdola perché, presentata come scelta positiva, esclude invece chi ne è vittima da esperienze di apprendimento fondamentali. Il tutto corredato da un altro dei terribili slogan della banalizzazione dell’imparare: rendere i contenuti “accattivanti”.

Insomma: l’innovazione autoreferenziale poco aveva da dire e da dare e non ha sedimentato alcunché. La didattica innovativa esce dal lockdown dell’istruzione in prossimità con le ossa rotte.

Non ti pare?

StefanoP

Innovativo, accattivante, moderno… È vero che prima ancora che le tecnologie bisognerebbe ripensare il discorso sulle tecnologie (non solo digitali). Sono parole che usiamo senza molta attenzione, una volta che abbiamo deciso, o che ci hanno convinto, che hanno un valore a prescindere dal loro contenuto. Importanza del lessico ma anche della grammatica, della retorica: l’uso del singolare (il digitale, la didattica a distanza, la didattica digitale integrata) invece del plurale, le categorie dei media (a distanza, in presenza) usate al posto di quelle didattiche, le sigle che diventano troppo facilmente concetti (DAD, DDI,BYOD). Non è solo un problema della scuola: basta vedere come si intende oggi lo “smart working”. Di questo schiacciamento dei significati delle parole delle conoscenza sul loro contorno tecnico si potrebbe parlare per ore.

MarcoG

Del resto questo era – e rischia di continuare a essere – l’approccio globale: le “nuove” tecnologie introdotte per ragioni puramente di mercato.

StefanoP

In generale è vero, nel senso che i tentativi di trasformare l’introduzione di uno strumento nuovo in una occasione di miglioramento e di sviluppo della didattica sono rimasti isolati e non hanno smosso il mondo, come invece hanno fatto le campagne di promozione di sistemi operativi, di suite per ufficio e di browser, di laboratori linguistici e di LIM. Ma secondo me il punto non è più quello dei prodotti: ora il vero mercato è quello dei dati, a cui del resto abbiamo già accennato. Non è un caso che l’espressione che si usa per definire questo millennio è “i dati sono il nuovo petrolio”.

MarcoG

Non capisco cosa c’entrano adesso i dati…

StefanoP

Qui non abbiamo solo nuovi prodotti che si gettano su un mercato esistente, abbiamo un mercato che si crea quasi da zero grazie a questi servizi. Provo a spiegarmi meglio (ma è un po’ lunga, mettiti comodo). Ragionando in termini strettamente economici, il modo di produzione di reddito capitalistico (semplificando all’estremo) richiede una quantità di un bene (la “materia prima”) e dei mezzi di trasformazione massivi. Materie e mezzi hanno un costo tale da richiedere un grande investimento che non può essere fatto a livello artigianale o familiare. Da questo punto di partenza puramente dimensionale derivano gli altri aspetti che conosciamo bene: la riproducibilità tecnica che richiede la standardizzazione del prodotto, i magazzini necessari per lo stoccaggio delle merci in attesa della distribuzione capillare verso gli acquirenti finali, la comunicazione pubblicitaria che punta a stimolare il consumo per abbassare i costi di magazzino, eccetera.

Cosa succede se la materia prima sono i dati, le merci sono servizi digitali e i mezzi di trasformazione sono computer? Ovviamente perché si avvii il pesante volano capitalista ci vogliono tanti dati e ci vogliono computer molto potenti; perché le merci siano acquistate bisogna che tutti i consumatori abbiano gli strumenti per consumarle e siano spinti a farlo. Non è difficile capire Google in questi termini.

Ma da dove vengono le materie prime digitali? Possiamo immaginarle divisi in tre categorie. I dati si estraggono prima di tutto leggendo fenomeni analogici e assegnando un numero: sensori che catturano la luce, il suono, l’umidità. Questi dati sono abbastanza oggettivi, anche se portano con sé almeno le coordinate spazio-temporali del rilevamento. Poi ci sono i dati che hanno senso solo se riferiti a qualcuno, e derivano dal rapporto di quel qualcuno nel contesto: la posizione assoluta, calcolata tramite triangolazione satellitare o usando le celle dei dati, oppure relativa ad altri soggetti. Un terzo tipo di dati, ancora più centrati sul soggetto, è quello relativo al nostro uso dei servizi digitali stessi. Questo tipo di dati è quello che si sposa alla perfezione con il modello capitalistico perché genera un accumulo a valanga: più utenti usano un servizio, più la qualità di quel servizio migliora e più altri utenti lo useranno. Basta pensare a come funziona Waze, l’app israeliana ora di proprietà di Google: segnala il traffico e prevede i tempi di percorrenza usando i dati degli utenti che usano l’applicazione stessa. Peraltro, in questo modello di business, non è l’utente che paga il servizio, ma le aziende “partner” a cui Waze vende spazi pubblicitari ultra contestualizzati, esattamente come fa Google Maps. Lens/Socratic, l’app di cui si è parlato di recente in connessione all’apprendimento della matematica, è basata sullo stesso principio.

La trasformazione della qualità in quantità non è un’idea nuova: corona il sogno di Galileo, è la dimostrazione che davvero il mondo è scritto in caratteri matematici. Già la fisica quantitativa, quella nata appunto nel Seicento, usava la matematica per elaborare i dati e prevedere il futuro, basandosi sulle regolarità dell’esperienza; ma l’informatica offre la possibilità di conservare le rappresentazioni numeriche del mondo e poi usarle al posto del mondo stesso. Sono i modelli digitali, non più solo matematici; sono i software che simulano dinamicamente un pezzo di mondo. L’ultimo e importantissimo passo è quello dell’interfaccia sensoriale con i modelli, quella che ci permette di interagire con queste simulazioni come se fosse realtà. Il modello viene rappresentato in modo significativo per noi (la previsione di pioggia sotto forma di nuvolona nera) e ci vengono date delle maniglie per manipolare la simulazione (spostare il centro delle previsioni nello spazio o nel tempo). Ai tempi dei miei ragionamenti astratti parlavo di dati, struttura e interfaccia come i tre componenti di qualsiasi software. L’interfaccia-utente è quella che permette di interagire con i modelli, e dal tracciamento delle interazioni si generano nuovi dati. Così siamo tornati al punto di partenza: i servizi digitali basati su dati producono i dati stessi. È una specie di moto perpetuo che produce valore.

Come ci sembra naturale la fisica quantitativa che ha sostituito quella qualitativa, così ci sembra naturale che ogni fenomeno possa essere tradotto in dato digitale. Non ci facciamo più tante domande e diamo per scontato che il rispecchiamento digitale sia sempre possibile e che sia perfetto.

Dietro la digitalizzazione c’è però sempre un filtro. Non vengono presi in considerazione tutti gli aspetti del mondo, come è ovvio (altrimenti la mappa sarebbe il territorio). Alcuni aspetti sono più interessanti, perché possono produrre valore. Altri si possono tranquillamente trascurare. La parola “rispecchiamento” ci dovrebbe fare pensare subito che lo specchio offre un’immagine diversa dal reale, che dipende dalla curvatura della superficie, dalla luce, dall’umidità. Insomma, tutto tranne che fedele.

Quando si acquisisce un’immagine con uno scanner o quando si fa una foto con un telefono si prendono solo alcuni punti e si buttano gli altri. Quanti punti? Dipende dalla memoria disponibile, dall’uso futuro, dalla potenza di calcolo che si può usare per trattarli. E cosa prendiamo di ogni punto? La luminosità, il colore, la distanza? Prendiamo un solo dato per ogni punto, oppure varie versioni a distanza di qualche centesimo di secondo, da posizioni leggermente diverse, che poi mettiamo insieme per ottenere un’immagine “migliore”?

Il problema è che tendiamo a pensare che la rappresentazione digitale sia perfetta; esattamente come pensiamo che, se un’informazione (un libro, un articolo, un prodotto) non è citata da una risorsa web, non esiste, O peggio, anche se esiste, ma non è censita da Google o da altri motori di ricerca, non esiste lo stesso. Ci abituiamo all’idea che quello che non è rispecchiato digitalmente non esiste affatto.

C’è un secondo senso per cui il rispecchiamento non è assoluto: i numeri dell’informatica sono sempre discreti, a prescindere dal fatto che si usi la numerazione binaria o meno. Un orologio digitale permette di rappresentare solo 86.400 secondi in un giorno. Non c’è modo di rappresentare quel momento che stra tra le 22:02:59 e le 22:03:00 . Quando si usano tre interi compresi tra 0 e 255 per rappresentare un colore naturale (ad esempio rosso, verde e blu) si stanno definendo 16 777 216 colori, e quindi si sta rinunciando a rappresentare gli altri colori possibili; cioè si decide che alcuni colori naturali che sono diversi verranno rappresentati come lo stesso colore.

Anche in questo caso, l’abitudine ci spinge a trascurare questo filtro e a immaginare che il tempo sia il tempo digitale e lo spazio dei colori sia quello del sensore CCD del nostro telefono.

Ma l’immagine memorizzata è fin da subito manipolata da un software. Che fa cose ancora più complesse: non si limita a trascurare dei dati, ma ne crea di nuovi mettendo insieme quelli che riceve, a volte secondo le nostre indicazioni (come per i filtri creativi), a volte senza – come quando i dati creati al momento di scattare la foto (data, luogo, marca, modello) vengono inviati al servizio “cloud” che usiamo per la conservazione delle immagini stesse e magari rivenduti per creare statistiche aggiornate. Alla fine l’immagine che salviamo nella memoria del telefono è frutto di un “rispecchiamento” della realtà che è molti di più di una duplicazione in scala ridotta e portatile.

È questo stesso meccanismo che è alla base della profilazione dei comportamenti degli utenti. Un profilo è una composizione di più valori lungo diverse dimensioni. Lo scopo è quello di classificare, di mettere nella stessa classe comportamenti e persona che “in realtà” sappiamo essere diversi. La conversione della vita analogica in profilo digitale elimina necessariamente delle aree intermedie, e quindi standardizza le persone; non solo, ma tratta i dati, li modifica, crea altri dati sulla base di quelli.

Qui c’è la difficoltà centrale, a mio avviso: da un lato, questa creazione di una realtà parallela è naturale per l’informatica, è così che funziona anche nel caso più trasparente; dall’altro, gli effetti negativi sulle nostre vite non sono attribuibili alla cattiveria dell’algoritmo che crea un profilo a partire da una collezione di dati, ma ad una scelta precisa nel progettare il software sottostante e soprattutto nello scegliere quali pesi vanno utilizzati per attribuire più valore ad un dato anziché ad un altro per categorizzare un comportamento.

MarcoG

Secondo te questo significa che non possiamo fare niente?

StefanoP

No, certo, un margine di azione c’è sempre. Non è facile vedere quale…


Torna su

MarcoG

Io sto maturando una convinzione “tattica”. Dobbiamo ragionare su come depurare i dispositivi digitali dalla subalternità alle skills del capitalismo di sorveglianza da una parte e della immotivata e anzi controproducente discontinuità professionale dall’altra per verificare se possano contribuire non solo a ridurre il danno ma anche a migliorare l’apprendimento. Il ministero ha fatto scelte ancora una volta molto chiare: partnership con le multinazionali digitali e rinuncia alla realizzazione di una infrastruttura pubblica, negoziata, flessibile e aperta a modifiche. Si preferisce insomma adeguarsi allo scenario prevalente presentandolo come l’unico possibile, senza metterlo in discussione, e quindi scaricare sui singoli utenti il carico dell’autotutela e della adozione di comportamenti corretti, per esempio nei confronti della diffusione intenzionale e manipolatoria di campagne d’odio o di notizie false, ricorrendo alla già di per sé ambigua nozione di “cittadinanza digitale”, per di più ridotta a confusa forma di insegnamento.
Esistono però anche altri scenari e altre impostazioni, con intenzioni alternative a quelle dei dispositivi mainstream: dal software libero alle piattaforme destinate alla cooperazione non tracciata e ai motori di ricerca che non mettono in atto la profilazione degli utenti.

Sei d’accordo sul fatto che ciò dovrebbe diventare patrimonio concettuale e operativo condiviso?

StefanoP

Condiviso da chi?

MarcoG

Da parte di tutti coloro che si battono per un approccio critico alla “questione digitale” che non sia soltanto respingimento, ma progettazione alternativa, difesa della libertà di insegnamento come garanzia culturale, diritto collettivo e pratica dell’emancipazione professionale e intellettuale.

StefanoP

Non sono ottimista come te, anche se sono vent’anni che lavoro solo con software libero… Comincio col riconoscere che hai ragione a mettere in relazione la licenza del software con tutto quello che abbiamo detto. Non lo fanno in tanti, non lo fa (sempre) il Ministero, ma nemmeno la UE nei suoi questionari sull’uso delle tecnologie digitali nell’era del COVID se ne ricorda. Quella del software libero è una questione etica ma anche sociale, nel senso che rilasciare il codice sorgente con una certa licenza modifica la maniera di lavorare, di apprendere, di vendere e comprare, e non solo di utilizzare un software. Il software libero non avvantaggia solo l’utente finale, che non spende soldi per acquistarlo, ma soprattutto l’ambiente dove l’utente agisce. Però bisogna essere franchi a costo di essere sgradevoli: il mito del software per imparare la matematica sviluppato da un genio sconosciuto nascosto nel suo scantinato e regalato al mondo per amore dell’umanità è, appunto, un mito. Certo, ci sono casi di docenti con un po’ di competenza di programmazione che per aiutare lo studente amico del figlio abbozzano un software per fare la tabelline in Visual Basic (l’ho fatto anch’io). Ci sono casi di informatici che hanno un lavoro tradizionale ma di notte lavorano ad un progetto personale. Ma non è su questi casi sporadici che si costruisce una soluzione sostenibile al problema di come produrre, distribuire, manutenere del software per la scuola.

MarcoG

Proprio tu che lavori allo sviluppo di software open source non sei a favore del software gratis per tutti?

StefanoP

No. O meglio: sono a favore di una dotazione di software educativo a tutte le scuole, come ci sono banchi, attaccapanni e cestini, ma anche lavagne, cartine e mappamondi, laboratori di fisica e chimica e palestre. Questo però non significa che chi produce attaccapanni e mappamondi debba consegnarli gratis alle scuole: qualcuno dovrà progettarli e costruirli, qualcuno dovrà consegnarli e ripararli quando si rompono, qualcuno di cui ci si possa fidare e che si possa chiamare in qualsiasi momento. Allo stesso modo, qualcuno deve studiare, progettare, sviluppare, testare, distribuire e aggiornare il software, esattamente come qualsiasi altro artefatto; non si può pensare che questo lavoro posso essere svolto gratuitamente da volontari sparsi a caso nel mondo.

MarcoG

E allora Wikipedia? La cito come esempio di iniziativa libera, frutto del lavoro di volontari in opposizione alle enciclopedie prodotte da dipendenti pagati.

StefanoP

Appunto, Wikipedia costa circa 2,5 milioni di dollari l’anno solo di hosting, e 40 milioni di dollari di personale. La fondazione che gestisce oggi Wikipedia ha 350 dipendenti e si sostiene con donazioni milionarie da parte di Google, di Virgin, di Amazon, di George Soros, di altre fondazioni private e delle donazioni dei singoli, arrivando ad un bilancio di 120 milioni di dollari. Wikipedia nasce come progetto profit (Nupedia) da parte di un azienda che aveva provato un po’ di tutto, compreso il porno (Bomis); ma siccome il modello di business non funzionava, viene trasformata in un progetto no-profit nel 2003 con la creazione di una fondazione, Wikimedia. Insomma, tenere in piedi un progetto delle dimensioni di Wikipedia non richiede solo persone di buona volontà ma anche una visione imprenditoriale, molta organizzazione e tanti soldi.

Il mondo dell’opensource è composto in buona parte da aziende (in generale PMI, ma alcune piuttosto grandi) che pur permettendo il download del codice sorgente forniscono a pagamento software opensource garantito, con un contratto annuale che assomiglia molto ad una licenza e comprende assistenza e supporto. Un esempio che molti conoscono è Moodle Pty Ltd, la società australiana che gestisce lo sviluppo della piattaforma di e-learning Moodle. Con circa 150 impiegati, Moodle si sostiene vendendo direttamente servizi (hosting, formazione) ma anche con i contratti annuali dei partner certificati. Nel 2017 ha ricevuto un investimento di 6 milioni di dollari da un fondo di proprietà della famiglia Leclerq (quella di Decathlon). Un altro esempio è la società Canonical ltd che mantiene Ubuntu, una distribuzione Linux molto conosciuta. Fondata da un miliardario sudafricano (uno di quelli che si sono pagati un viaggio turistico sulla Soyuz), Canonical ha oggi 600 dipendenti; dopo averne licenziati 200, nel 2017 ha avuto un margine operativo di 2 milioni di dollari.

Qui siamo molto lontani dallo sviluppatore che di giorno lavora alla posta e di notte sviluppa il suo motore di ricerca alternativo: sono aziende for profit, che hanno dei costi, dei ricavi, un bilancio. Non c’è niente di male, ma queste aziende non vanno confuse con associazioni di volontari idealisti. A volte si usa la distinzione tra “opensource” e “free software” proprio per distinguere tra un approccio funzionalista e uno etico-politico. Ci sono entrambi, vanno tenuti presenti entrambi.

È vero che una parte del software libero è anche gratuito; questo è un volano potente ed è significativo soprattutto per gli sviluppatori singoli e le micro-imprese che possono permettersi di sviluppare software senza dover pagare migliaia di euro di sistemi operativi e strumenti di sviluppo, o per le piccole società che offrono hosting a prezzi bassi utilizzando server Linux con Apache, MariaDB, Php, Python etc. Ma non avrebbe senso pretendere che questi servizi venissero offerti gratis alle scuole, perché sarebbe solo un modo per privilegiare le grandissime aziende che possono permettersi di investire in pubblicità e offrire piattaforme e banda in cambio di un ingresso dal portone principale della Scuola.

E allora dove sta il free? Come si dice: il software libero è free nel senso di free speech, non nel senso di free beer. Il software libero ha il codice sorgente aperto, che significa che chi lo ottiene può ispezionarlo, leggerlo, imparare da esso; ma anche modificarlo e ridistribuire la versione modificata. Questo vuol dire che può essere ragionevolmente sicuro che non ci siano parti nascoste che rubano dati personali e li spediscono allo sviluppatore all’insaputa dell’utente; vuol dire che se lo sviluppatore muore, il progetto può continuare. Vuol dire che progetti più grandi si possono costruire utilizzando librerie e parti di progetti più piccoli. Questi aspetti sono molto più importanti del fatto contingente che un software sia gratuito: potrebbe essere gratuito ma non libero, cioè senza codice sorgente aperto, come il cosiddetto freeware o il software di pubblico dominio.

Insomma, software libero è un modo di sviluppo del software che si adatta particolarmente bene al software educativo; ma bisogna trovare un modo di sostenerne economicamente lo sviluppo nel tempo, altrimenti si finisce per fare un guaio peggiore: far scomparire dalla faccia della terra quel tessuto di sviluppatori, di piccole imprese, di cooperative che potrebbero costituire un’alternativa alle multinazionali digitali. E la scuola potrebbe fare la sua parte.

Ti ho messo in crisi?

MarcoG

No, sei stato ancora una volta illuminante e mi hai donato birra intellettuale, anche se nel mio caso analcolica, e mi spingi a ragionare meglio e più da vicino sul tema del software libero, che per un lungo periodo ho sottovalutato, considerandolo la versione naïf di quello commerciale.

È vero: il software in generale – libero o commerciale – esercita la “dittatura del calcolo” cui tu hai accennato e di cui parla in modo particolarmente illuminante Zellini, e ogni realtà rispecchiata è il frutto di computazione in funzione di variabili e di criteri che sono per forza delle cose frutto di scelte vincolanti e limitative. Ma il free software dà un messaggio che vale la pena di cogliere, valorizzare e diffondere, in contrapposizione esplicita con l’assetto mainstream: la conoscenza è cooperazione sociale in continuo evolversi dinamico e nessuno se ne può appropriare in forma esclusiva o anche solo dominante. Di conseguenza, la costruzione di dispositivi digitali che influenzano la conoscenza e il lavoro e le modalità del loro impiego, individuale e collettivo, deve fare i conti con i diritti e non determinare condizionamenti.

Sono convinto, insomma, che dobbiamo continuare a ragionare in modo critico, in particolare sul capitalismo di sorveglianza, ma che sia anche urgente e possibile dare indicazioni alternative, per una cultura positiva e pratiche fattive nel campo delle tecnologie digitali dell’informazione e della comunicazione per la didattica.

Dobbiamo, cioè, diventare e considerarci capaci di applicare e diffondere una prospettiva differente e di concepire e praticare soluzioni diverse dal rifiuto aprioristico, versione del “senza se e senza ma” destinata a subalternità operativa e ad asfissia politica e – quindi – ad auto-emarginazione.

È quanto mai evidente, infatti, che – nonostante il fallimento della prospettiva dell’innovazione – le piattaforme capitalistiche di intermediazione digitale proprietaria hanno sfruttato il lockdown e le richieste e le disponibilità di ministero, di singoli istituti e di molti insegnanti per estendere e rafforzare la propria egemonia, fondata sulla conoscenza sorvegliata e sull’estrazione di dati spacciate per cooperazione e per altro già molto diffusa nell’istruzione in generale e nelle varie scuole.

E quindi, se vogliamo riuscire a resistere in misura efficace all’irruzione della logica e della logistica tecno-liberiste nell’istruzione della Repubblica, secondo il “dispositivo digitale mainstream”, dobbiamo prioritariamente svincolarci dall’uso delle categorie e del lessico totalizzanti e polarizzanti – per esempio, “la” didattica a distanza, “il” digitale, “le” tecnologie – per costruire quadri concettuali autonomi, divergenti, a vocazione esplicitamente emancipante.

In particolare, non possiamo continuare a (lasciar) confondere la sfera e il discorso pubblico con l’insieme dei rapporti di comunicazione mediati da aziende private multinazionali, come troppi fanno, per esempio rappresentandosi Facebook come un’agorà.

Penso che sia utile approfondire il tema della conoscenza così come i differenti dispositivi digitali – sì, perché possono non essere tutti uguali! – se e ce la rappresentano.

La “platform society” del capitalismo digitale, come abbiamo già accennato, pratica continui processi di appropriazione unilaterale della rete internet e dei dati e dei comportamenti degli utenti. Non stupiamoci: questa logica produce strumenti di accumulazione, di profitto e considera la conoscenza come una risorsa per la creazione di valore economico ed aspira ad accumularla e sfruttarla in modo tendenzialmente monopolistico.

Dell’atteggiamento culturale sotteso al movimento per il free software, invece, mi convince e mi dà speranza il rapporto ideale con la conoscenza che ho descritto poco fa. Preciso per altro che sono assolutamente d’accordo con te sul fatto che questo debba sfociare nel pieno riconoscimento del lavoro prestato, strumento fondamentale per l’incremento della conoscenza di tutt* e di ciascun*. Non vogliamo riders dell’istruzione e nemmeno possiamo contare sul volontariato.

Alle tue osservazioni critiche, io aggiungerei anche che nel mondo dell’opensource ci si imbatte ancora troppo spesso in una fastidiosa tendenza elitaria, quella di chi pensa che in fondo la vera capacità d’uso passa per l’interfaccia a comandi, l’unica a permettere e dimostrare la piena comprensione del funzionamento del dispositivo. Oppure di coloro che invitano sdegnosamente a consultare help e manuale di istruzioni anziché fornire la risposta a qualche domanda di chiarimento. Non per caso, del resto, scrissi anni fa un articoletto intitolato “Codice aperto. Mentalità chiusa?”, purtroppo ora non più reperibile, in cui in sostanza affermavo la necessità di uscire da un approccio che allora mi appariva troppo auto-selettivo e che oggi mi sembra più che mai ingiustificatamente individualistico.

Credo però che proprio l’emergenza sanitaria e formativa possa permetterci non solo di criticare posizioni di questo tipo, ma di provare a farle evolvere nel loro opposto, assumendo e proponendo in ogni sede di discussione in modo intenzionale – sono affezionatissimo a questa parola – una prospettiva sociale.

Cerco di spiegarmi meglio.

Detto in un altro modo, voglio valorizzare l’approccio etico-politico e non economicista, in particolare l’idea che ciascun singolo e soprattutto ogni comunità hanno diritto al controllo di ciò che utilizzano e dei propri dati.

In riferimento alla costruzione di un dispositivo digitale alternativo a quello del capitalismo di piattaforma, “apertura” e “libertà” mi sembrano insomma significare soprattutto trasparenza e consapevolezza da parte di tutti coloro che sono coinvolti.

Bene, questo approccio e le sue implicazioni devono assumere esplicita valenza collettiva. Smettere di essere patrimonio più o meno esibito di alcun* o accesso iniziatico a gruppi particolari, per dispiegare invece tutta la propria potenza politica nella sfera pubblica, intesa come dibattito, sintesi, scelta, ma anche come dimensione operativa su mandato collettivo, appunto consapevole e aperto.

La prospettiva open/free, insomma, se intesa come sto cercando di ri/definirla, può costituire la base su cui costruire un uso sociale e autenticamente democratico delle tecnologie digitali con lo scopo di accrescere conoscenza e benessere in modo equo.

Prendiamo ad esempio il caso del tracciamento a scopo di prevenzione e intervento sanitario, testimoniato dalle discussioni sull’installazione di “Immuni”: è una buona idea, ma – oltre a garantire a ciascun* la riservatezza dei propri dati sensibili – l’impiego dell’intelligenza artificiale deve essere il frutto di un mandato consapevolmente finalizzato all’utilità pubblica e indirizzato con procedure che garantiscano chiarezza e trasparenza sulla raccolta e sull’uso dei dati, secondo criteri bio-medici e statistici, ma anche civici, etici, ecologici, economici e sociali, espliciti e condivisi, non sulla base dell’affidamento a un golem postumano.

Certo, la realizzazione concreta e tutti gli aspetti operativi connessi sono compito di coloro che possiedono le capacità tecniche, ma va denunciata e scardinata l’impostazione tecnocratica – ahimè! in vigore – che si arroga non solo il diritto di individuare i problemi su cui investire risorse, ma anche la potestà esclusiva di articolarne gli aspetti, di definire parametri e criteri di soluzione, di valutare l’efficacia dei meccanismi prodotti.

Nella condizione tecnocratica attuale, alla cittadinanza digitalizzata – a volte addirittura a sua insaputa – spesso non è richiesto nemmeno il consenso informato, quanto piuttosto un adeguamento fiduciario, firmato in bianco.

Questo rovesciamento dell’impostazione – che per brevità possiamo chiamare algoretica – può essere estesa a tutti i campi d’esercizio della potenza di calcolo e interpretativa dell’IA.

Certo, sarebbero necessarie modalità di istruzione molto diversa da quella attuale (prerequisito una visione emancipata e non adattiva del pensiero computazionale), investimenti in infrastrutture pubbliche, sinergie aperte tra diversi saperi specialistici – dalla medicina alla filosofia, dal diritto alla statistica e così via –, volontà di confronto.

Non ci possiamo nascondere, inoltre, che un’impostazione che vuole restituire agli esseri umani la capacità decisionale collettiva deve fare i conti con l’algocrazia attualmente dispiegata dal capitalismo di sorveglianza, sulle cui procedure operative vige il segreto industriale, ormai molto vicino a quello militare, dal momento che con ogni evidenza è alla base dell’esercizio di un potere condizionante la quotidianità della vita umana. L’iniziativa culturale e politica dovrebbe mandare in corto circuito l’acquiescenza acritica, ormai così diffusa da aver di fatto accettato che alla sovranità fondata su territori, popoli e istituzioni si aggiunga – e spesso si sovrapponga – quella dell’intermediazione messa in atto da data server digitali con consumi di energia non per caso paragonabili a quelli di Stati, come tu stesso sottolinei.

Affermare e praticare la necessità che le scelte nel campo dell’ICT applicata alla vita umana debbano essere aperte, cioè trasparenti e collettive, costruendo le sinergie necessarie, è, insomma, a mio giudizio il solo modo per recuperare un senso di auto-efficacia sociale capace di invogliare alla partecipazione attiva e alla fatica intellettuale che un’autentica cittadinanza critica richiede.

Ora facciamo però un salto in un futuro forse utopico. Gli assi portanti dell’intervento pubblico in materia di istruzione digitalizzata sono l’approccio etico e il riconoscimento della conoscenza e del lavoro come risorse sociali di emancipazione individuale e collettiva e viviamo un quadro politico-istituzionale davvero costituzionale, privo di “secondi fini”, trasparente e libero da operazioni di tracciamento a fini di profitto. Come potremmo valorizzare le caratteristiche dei dispositivi digitali nella direzione di un autentico e pieno diritto all’apprendimento individuale e collettivo?

StefanoP

Mi piace la tua domanda, formulata in questo modo. Per me la risposta, o una delle risposte, è: per aiutare gli apprendenti a costruire delle teorie, cioè delle rappresentazioni complesse e dinamiche del mondo. Perché questa operazione (costruire un modello sperimentale del mondo, una simulazione dinamica di un processo), malgrado quello che ci ostiniamo a pensare, non si riesce a fare del tutto con la parola, con il disegno, con i libri, con le lavagne: tutti questi sono strumenti di rappresentazione statici, in cui statico non è opposto a multimediale o animato, ma a dinamico. Con i computer si possono rappresentare simboli e definire delle regole con le quali questi simboli si combinano_ nel tempo_ e creano nuove strutture.

Un esempio di questa operazione: scrivere un testo. Qualcuno potrebbe dire: ma perché, non si poteva fare con la penna e il foglio di carta?

MarcoG

Io no. Anche perché sono notoriamente un amanuense disgrafico con centinaia di pubblicazioni.

StefanoP

È vero. Comunque: sì, si poteva usare la carta se l’obiettivo fosse stato quello di produrre un testo, come in ufficio, come a casa. Invece a scuola – voglio dire in un contesto educativo – l’obiettivo finale non è produrre, e nemmeno imparare a produrre, ma capire. In un ambiente digitale educativo si impara a scrivere un testo, ma soprattutto si capisce cos’è un testo, di quali parti è composto, come nasce, come evolve quel testo nelle mani dell’autore o di altri autori successivi o contemporanei. Un ambiente digitale educativo permette di capire che un testo non è solo una sequenza di righe scritte su un foglio di carta, perché permette di astrarlo dal supporto, duplicarlo, distribuirlo indipendentemente da quello. Un testo è, in ogni momento, una fotografia di un universo (ad esempio, narrativo), una rappresentazione che utilizza diversi livelli (lessico, grammatica, sintassi, stilistica, retorica).


Torna su

MarcoG

Naturale. Anche se non so quanti la vedano in questo modo. Ma dov’è che interviene il digitale educativo?

StefanoP

Ci arrivo. Intanto devo dirti che trovo strano che normalmente non si distingua tra due usi dell’informatica, o meglio due livelli: l’elaborazione dei dati e quella dei simboli. Mi pare una distinzione fondamentale, e quindi provo a farla io, perché ci serve per capire cosa dovrebbe fare un ambiente digitale educativo.

L’informatica è nata per accelerare e automatizzare le trasformazioni dei numeri, cioè i calcoli. Quali calcoli? Quelli che servivano alla balistica per calcolare la traiettoria di un missile (l’ENIAC, nato per questo scopo nel 1946 ma usato poi per la meteorologia); o quelli che servivano alla statistica per il censimento della popolazione (i primi UNIVAC in uso al Census Bureau USA nel 1951). Questo scopo è ben presente anche oggi: le centraline delle automobili, ad esempio, sono piccoli computer che prendono i dati dai sensori del motore (fase, pressione, temperatura), li elaborano e restituiscono dei valori che sono usati per regolare la miscela aria-benzina, l’accensione delle candele, insomma il funzionamento ottimale del motore. L’IoT, l’internet delle cose, è un modo di dire che la distanza fisica tra i sensori e gli elaboratori dei dati non è rilevante, e che monitorare un processo critico – raccogliere dati continuamente – può servire a evitare danni peggiori. I computer possono continuamente fare calcoli fino a mostrare cosa succederebbe se…, in modo da consentirci di prendere decisioni più in fretta senza aspettare di vedere effetti macroscopici.

In tutti questi casi, i dati che vengono trattati sono numeri che rappresentano grandezze fisiche, in ogni caso aspetti primari della realtà. Vale naturalmente anche per i suoni e i colori.

Ma i numeri si possono usare anche per rappresentare simboli, che sono già a loro volta rappresentazioni della realtà. Per esempio, le lettere dell’alfabeto di una lingua naturale sono simboli che si possono rappresentare con numeri secondo una tabella standard (ASCII, 1968). Quindi con i computer si possono raccogliere e contare lettere, parole e frasi. Non è che sia una scoperta recente: uno dei primissimi computer, il Colossus, serviva a decifrare i messaggi tedeschi, giapponesi e italiani per conto della Royal Navy, quindi lavorava proprio su serie di lettere. Ma da qui nasce anche l’informatica umanistica negli anni ‘50, quando padre Roberto Busa SJ si mette in testa di costruire un lessico completo dell’opera di Tommaso d’Aquino usando un calcolatore a schede perforate che gli presta l’IBM. Oltre a contare, però, i simboli si possono anche trasformare e si possono produrre nuove raccolte di simboli, cioè dei testi. Come in un word processor o un editor HTML.

Questo dell’elaborazione simbolica è un livello diverso, anche se dal punto di vista dei computer non è che cambi poi tanto. Dal nostro punto di vista, invece, lo è davvero, perché noi siamo abituati da qualche centinaio di migliaia di anni a presupporre di essere l’unico agente in grado di trattare simboli, e quindi siamo piuttosto ingenui quando si tratta di valutare le produzioni simboliche di altri agenti. Di qui l’Intelligenza Artificiale, i virus, i BOT dei social network, i software che producono plot narrativi.

Da qui deriva anche le possibilità di applicazione del digitale nell’educazione, perché nell’educazione si lavora con le parole, con i concetti, con le relazioni tra concetti, e si impara come costruirne di nuove. E quindi un software che sia capace di trattare questo tipo di oggetti e di fornire un piano dove collocarli, spostarli, cancellarli e richiamarli diventa fondamentale.

Allora: un ambiente educativo per la scrittura digitale permette di lavorare a tutti questi livelli (fonetico, lessicale, sintattico, stilistico) in maniera indipendente, perché questi livelli sono stati codificati come simboli, e con i simboli i computer si rapportano piuttosto bene, come abbiamo visto. Insomma, ci sono tonnellate di articoli e libri che raccontano come si possa capire cosa significa “testo” usando un software senza che io ti tedi oltre.

MarcoG

Infatti. Si può usare anche Word… pardon, Libre Office Writer…

StefanoP

Qui dobbiamo stare attenti: più lo strumento è standard, da adulti, mirato al risultato, più occorre che il docente faccia un lavoro di adattamento alla situazione, di completamento, di astrazione dalle modalità standard. Ma è possibile, nella misura in cui lo strumento può essere modificato per adattarlo al contesto dell’apprendente.

La scrittura è un esempio forse un po’ tirato per i capelli (ma l’ho fatto perché so che te ne sei occupato a lungo), ma ce ne sono tanti altri più diretti: ad esempio, una mappa concettuale per rappresentare un contesto storico/geografico in cui si possano filtrare i link o espandere i nodi per una navigazione differenziata in base alla domanda di fondo. Oppure, per spostarci in ambito scientifico “duro”, una simulazione del comportamento di un ambiente basata sull’equazione di una legge fisica in cui si possano variare i valori dei parametri. Una simulazione interattiva in cui si possa accelerare la rivoluzione terrestre o il ciclo della pioggia per vedere cosa succede dopo dieci, mille, un milione di ripetizioni.

Per costruire da zero questo tipo di modello dinamico (non solo usarlo) non si possono usare i simboli del linguaggio naturale, ma ci vogliono quelli di un linguaggio artificiale, di un linguaggio di programmazione; e qui passiamo al coding, o almeno ad una forma possibile di coding. Anzi, potremmo immaginare un ventaglio continuo di possibili ambienti educativi che va da quelli fortemente strutturati (in cui non si può fare altro che reagire a stimoli e rispondere a quiz), e poi passando per vari gradi di apertura (i software didattici da esplorare liberamente) arriva fino all’estremo del coding, in cui la struttura va creata da zero prima di poterla esplorare.

In tutti questi casi, infatti, quello che conta è che l’ambiente digitale sia pensato come educativo. Il che non significa che deve essere “pieno di contenuti semplificati”, ma che deve essere progettato appositamente per permettere all’apprendente di prendere confidenza man mano che lo utilizza, modificandone l’interfaccia e la logica, adattandolo al suo personale e attuale livello di competenza.

Questa plasticità dell’ambiente digitale (che è possibile appunto perché è digitale, e non lo sarebbe se fosse un ambiente fisico rigido) deve essere accompagnata da una forma di consapevolezza di quello che accade al suo interno. Niente intelligenza artificiale, solo monitoraggio delle operazioni; una raccolta continua di dati che non serve a profilare l’apprendente per vendergli qualcosa, ma a valutare l’apprendimento per personalizzare l’ambiente stesso in maniera più pronta e utile a chi apprende al suo interno. Un monitoraggio esplicito, i cui dati siano disponibili per l’apprendente e per il docente, o per il gruppo formato da apprendenti e docenti.

Tra parentesi: questa è la giustificazione dei cosiddetti strumenti di Learning Analytics. I dati – quegli stessi dati che oggi fanno la fortuna di Google, di Amazon e di tutti gli altri grandi – possono e devono essere di proprietà di chi li ha prodotti, ed essere resi pubblici in forma anonima, come open data. Qui bisogna essere ragionevoli e smettere di confondere strumento e utilizzo. Come per gli “algoritmi cattivi” di cui hai già parlato tu: non si tratta di demonizzare i dati, ma di ripensarne il processo di produzione e distribuzione in un’ottica di sviluppo delle persone. I nostri dati ci appartengono, ma dobbiamo essere messi in condizione di usarli.

Tu ti occupi di formazione degli insegnanti, di queste cose ha scritto tanto. Mi dai un po’ di link?

MarcoG

Certo. Per primi, cito gli ausili in campo sensoriale e motorio, che sono numerosissimi e vengono via via perfezionati, con lo scopo di facilitare – e in alcuni casi di permettere – l’accesso e la pratica di percorsi di istruzione e di contesti operativi da parte di tutt* con il massimo di autonomia e di efficacia possibili, proprio sfruttando quella possibilità di elaborare simboli in modo dinamico che hai appena descritto.

In questa medesima prospettiva si colloca la multimodalità, ovvero la possibilità di realizzare facilmente contenuti fruibili in modi diversi e il più possibile equivalenti sul piano espressivo e concettuale: l’esempio tipico è il testo digitale, che – digitato una volta – può poi essere letto a schermo e su carta, stampato in braille e ascoltato via sintesi vocale.

Se ragioniamo sul testo, dobbiamo riflettere sulla plasticità operativa e cognitiva che gli conferiscono trasferimento o elaborazione diretta su “supporto flessibile” (chi non ha apprezzato il taglia-e-incolla o la possibilità di cancellare senza conservare residui?). Si configura uno spazio propedeutico permanente, in cui la scrittura di testi articolati può essere concepita anche operativamente come processo di apprendimento mediante la pratica: si possono infatti perseguire e raggiungere risultati accettabili mediante intenzionali perfezionamenti successivi, messi in atto in un consapevole rapporto dialettico tra alliev* e insegnanti. L’idea della “bozza progressiva e collaborativa” è per altro estensibile a qualsiasi processo di elaborazione da parte degli allievi di un prodotto culturale e intellettuale mediante dispositivi digitali, sempre supervisionabile da parte degli insegnanti, non più costretti a limitarsi a correzione e valutazione finali, ma in grado di attuare, se necessario, interventi di mediazione e di supporto costanti, lungo tutta la produzione. Questa prospettiva professionale può incrementare e valorizzare lo spazio formativo e l’auto-efficacia della funzione docente, in termini di capacità inclusiva e di individualizzazione compensativa dei percorsi e delle attività didattiche.

Disporre di testo su supporto flessibile consente inoltre agli insegnanti di mettere in atto in prima persona gli interventi di adattamento previsti dai relativi protocolli per i libri di testo. Voglio anzi sottolineare che la “semplificazione” non è banalizzazione, dispensa, riduzione, ma la messa in atto di strategie – in questo caso di tipo linguistico – per migliorare la comprensibilità dei quadri concettuali e dei contenuti culturali proposti, eliminando le complicazioni di cui si può fare a meno. Che spesso sono molte più di quanto si possa immaginare, soprattutto quando si impara a non dare nulla per scontato.

In questa stessa logica si colloca la presentazione di contenuti affiancando più canali, con una prospettiva non dispensativa (l’immagine al posto del testo), ma integrativa e compensativa (l’immagine oltre al testo; lo schema come strumento di decostruzione e ricostruzione di altri materiali di apprendimento). Questo significa anche rifiutare, come accennavo prima, l’uso di filmati invece di libri, che si fonda sull’illusione che sia possibile surrogare l’approccio alla conoscenza permesso dalla più astratta e quindi più potente per estensione e intensità delle tecnologie della comunicazione – la scrittura e la lettura di testi complessi – con immagini in movimento, sia pure corredate di contenuti sonori.

Fino a questo momento ti ho rapidamente declinato alcuni approcci che vanno nella direzione soprattutto dell’estensione del campo di efficacia dell’istruzione collettiva, della garanzia democratica in ordine agli apprendimenti di base, volti a incrementare l’autonomia di tutt* e di ciascun*, in un sistema di relazioni sociali positive, di valorizzazione reciproca, in cui il dispositivo digitale è elemento di coesione e di equità.

Sono però convinto, anche per averlo praticato, del fatto che i dispositivi digitali abbiano rilevanti potenzialità di salvaguardia e di cura democratica anche per quanto riguarda un approccio emancipante alla complessità dei saperi, sempre in virtù della elaborazione dinamica di linguaggi simbolici.

Innanzitutto, la diffusione di infrastrutture di rete pubbliche e aperte, con funzionalità negoziate, flessibili e adattabili (anziché preimpostate e modificate in modo centralizzato e autocratico) può estendere gli spazi per la condivisione critica e la classificazione professionale di materiali, attività, proposte, in una logica di autentica cooperazione, aliena da pratiche competitive e gerarchizzanti.

Le varie rappresentazioni grafiche– ai cui differenti modelli logico-visivi sono per altro ispirati in modo rigoroso parecchi software free – possono supportare, esemplificare e rendere visivi stili di ragionamento anche molto diversi tra di loro, con diverse modalità cognitive e diverse finalità e implicazioni formative, ampliando lo spettro e l’estensione del patrimonio di riflessione e di schematizzazione a disposizione di tutt*, a cominciare dagli insegnanti.

Il ricorso intenzionale a una consapevole tessitura ipertestuale è una pratica concettuale con grande potenza sintattica e semantica, di cui ogni cittadin* deve impadronirsi sul piano cognitivo e culturale: può costruire percorsi all’interno della rete nel suo insieme, può chiarire, esemplificare, contrapporre, definire, integrare e così via. A questo va aggiunta la potenzialità dei QRCode. Facilissimi da generare, essi consentono di puntare ad un indirizzo web – per limitarci a ciò che consentono le applicazioni gratuite – anche a partire da oggetti materiali. Non solo: per attivare il collegamento è necessario inquadrare il codice attraverso il proprio smartphone e poi confermare l’operazione. In questo modo, si utilizzano, due diversi supporti, on funzioni diverse: l’oggetto di partenza e – appunto – lo smartphone, marcabdo una netta distinzione tra flusso culturale principale e informazioni aggiuntive. Sul versante cognitivo, questa pratica può facilitare la strutturazione di interconnesioni logiche congruenti alla situazione formativa. In modo analogo funzionano i TAG Near Field Communication (NFC), a loro volta ponte tra atomi e bit.

StefanoP

L’idea di ponte tra mondo fisico e mondo digitale – veicolata da un puntatore univoco e pubblico – è interessante. A differenza dei vari visori di realtà aumentata questo collegamento è pubblico e può essere controllato prima di essere seguito: alla fine si tratta semplicemente di una URL. Può essere un modo facile di aggiungere media diversi: la URL potrebbe essere quella di un audio, di un video…

MarcoG

Infatti. Alla fine del discorso – per ora – c’è proprio la dimensione multimediale. Come ho già detto forse fin troppo, ne va immediatamente abbandonata ogni visione sostitutiva e per ciò stesso dispensativa (il filmato anziché il testo; il film anziché il capitolo di storia o la lezione di scienze) e va invece praticata l’integrazione tra media diversi. In particolare, oltre alla possibilità di tessitura ipermediale a partire da uno o più testi guida, sottolineiamo quella – fornita da un numero crescente di ambienti – di costruire manufatti multimediali imperniati su integrazioni, commenti, ampliamenti e così via di uno o più filmati disponibili in rete. Sono fortemente convinto, anzi, che la possibilità di interrogarsi a proposito di come esplicitare e rappresentare in più modi e dinamicamente il verso, il senso e il significato delle relazioni tra gli elementi di uno o più aggregati informativi e comunicativi costituiti da elementi di matrice mediale diversa sia la più potente risorsa formativa della dimensione digitale della cultura, la più vicina alla natura reticolare, aperta e libera della cognizione umana.

Per ora, mi fermerei qui. Cosa ne dici?

StefanoP

Che abbiamo detto tanto, ma non tutto. Quindi questa conversazione per ora la chiudiamo qui, ma solo per condividerla e renderla pubblica, ovviamente in forma il più possibile libera e aperta. Sperando che qualcun altro voglia iniziare a discuterne con noi…

Anzi no, prima di chiudere raccogliamo qualche indicazione di lettura per approfondire le questioni che abbiamo toccato. Comincio io con le cose che sono andato scrivendo sul mio blog a proposito di algoritmi, coding, monopolio e opensource:

Una Lente per osservarli tutti

Scuole e monopolio

Costruire teorie sperimentali con il coding

Coding, la resa dei conti

Ancora sugli algoritmi

MarcoG

Va bene. Io cito il mio blog preferito, “Concetti contrastivi”, che si propone niente meno che di “Descrivere le tecnologie digitali come prodotto sociale e svelarne le ambiguità in modo emancipato e con scopo emancipante” e un mio recente intervento in un convegno, sull’impossibile neutralità delle e verso le piattaforme.


Torna su

GLOSSARIO
Tra istituzioni e tecnologie

ANSAS-INDIRE: La Biblioteca di Documentazione Pedagogica, ente di importanza nazionale istituito nel 1974, ha assunto a partire dal 1995 anche la funzione di supportare le scuole nell’uso di Internet. Nel 2001 è diventata Istituto Nazionale di Documentazione per l’Innovazione e la Ricerca Educativa, nome modificato nel 2006 in Agenzia Nazionale per lo Sviluppo dell’Autonomia Scolastica (ANSAS) e poi ripreso nel 2012. Come sintetizzato nella pagina di autoricostruzione storica: “Nel periodo 2001-2011, l’Istituto è impegnato in grandi iniziative online per la formazione degli insegnanti italiani e nella promozione dell’innovazione tecnologica e didattica nelle scuole”.

ITD: L’Istituto Tecnologie Didattiche è frutto dell’unione nel 2002 di due centri precedentemente realizzati dal Consiglio Nazionale delle Ricerche: l’Istituto Tecnologie Didattiche di Genova (1970) e l’Istituto Tecnologie Didattiche e Formative di Palermo (1993). Come ricordato nella pagina iniziale del sito, che permette anche l’accesso immediato ai progetti più recenti, “è il solo istituto scientifico italiano interamente dedicato alla ricerca sull’innovazione educativa veicolata dall’integrazione di strumenti e metodi basati sull’uso delle tecnologie dell’informazione e della comunicazione”. Segnaliamo in particolare il servizio Essediquadro, l’attenzione alla didattica inclusiva e – più di recente – le riflessioni sulla didattica di emergenza.

IRRSAE-IRRE: gli Istituti di ricerca regionali, di sperimentazione e aggiornamento educativi sono stati istituiti nel 1974 in tutte le regioni italiane, impiegando personale “comandato”, ovvero distaccato dalle funzioni direttive, docenti e tecnico-amministrative ordinarie sulla base di procedure concorsuali, per svolgere attività di supporto alla ricerca educativa, alla sperimentazione didattica e all’aggiornamento metodologico. Nel 1999 gli IRRSAE hanno assunto il nome di IRRE – Istituti regionali di Ricerca educativa, enti strumentali del Ministero dell’istruzione -, per essere infine assorbiti nell’ANSAS (2007).

OTE: L’Osservatorio Tecnologico per la scuola è stato un servizio nazionale di consulenza e informazione erogato in rete tra il 2000 e il 2009 a proposito delle tecnologie dell’informazione e della comunicazione, particolarmente attento alla accessibilità dei siti, alla navigazione sicura, al software open source e ai contenuti aperti. Il sito è tuttora raggiungibile, anche se non è più aggiornato.

MAPPE CONCETTUALI
Sintesi del contenuto del testo

CREDITI

Per l’immagine di copertina (a sx Marco e a dx Stefano, entrambi fans di Don Chisciotte): elaborazione di foto di André SAAD da Pixabay

Licenza Creative Commons


Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Condividi allo stesso modo 4.0 Internazionale.


Pubblicato

in

, , ,

da

Commenti

Lascia un commento