Andando in moto verso Roma sulla via Anagnina (la vecchia via Latina) incontro prima un allevamento di trote e poi una pasticceria. Il dolce storico che ha reso famoso la suddetta pasticceria è la Torta Fragolosa, e quindi la pasticceria espone in bella vista un cartello che invita a fermarsi ad assaggiarla. Dunque, passando in moto (la moto è importante, il casco limita la visione e bisogna stare molto concentrati sulle buche), ogni volta leggo l’insegna. La leggo involontariamente, inconsapevolmente, forse la prima volta mi sono anche domandato che roba fosse, ma non mi sono mai fermato: immagino un tripudio rosa di panna e fragole, che non è proprio il mio genere di dolce.
In ogni caso, ogni volta che passo la rileggo. Ieri ho avuto una sorpresa: ho letto “La Trota Fragorosa“. Un doppio scambio: di posto, nella prima parola, e di consonante nella seconda. Un lapsus freudiano? Il mio inconscio vorrebbe dirmi qualcosa? Stanno cambiando i miei gusti, dal dolce al salato? E’ venerdì? Non lo so, ma il risultato è magnifico. Mi viene da ridere, e quindi mentre proseguo giù verso la vecchia FATME e la torre medievale di Mezza Via (rischiando di investire un Apecar piena di operai barbuti che sbuca selvaggiamente da un angolo) continuo a rotolare queste due parole nella mente e lascio venire altre parole: tuffi, sbuffi, rumori, salmoni, rosa, fiumi, cisterne, fragole, barbe…
La Trota Fragorosa è una specie particolare del genere Salmo, conosciuta soprattutto per il rumore che fa quando s’incapriola e si rituffa in acqua: Splonsc! Essa è in effetti di dimensioni ragguardevoli, quaranta chili di massa muscolare rivestita di squame rosa, elegante e potente come Freddy Mercury: la regine delle trote. Viveva in un canale sotterraneo che partendo dall’Abbazia di San Nilo a Grottaferrata sfociava nella cisterna Romana che sta accanto alla Torre di Mezza Via, tra Roma e Frascati. Era accudita e nutrita dai frati greci e servita per i banchetti più raffinati, quelli in cui l’archimandrita invitava il Principe di Palestrina e il Conte del Tuscolo per discutere in terreno neutro della pace e della guerra. Ci è tramandata grazie all’Artusi una ricetta secentesca: la Trota farcita alle Fragole di Nemi accompagnata da uova di tritone degli aquitrini della Doganella.
Viveva, perché ahinoi la Trota Fragorosa è scomparsa nell’Ottocento, forse ad opera dei briganti della Campagna Romana che si davano appuntamento tra il lusco e il brusco proprio all’Osteria addossata alla Torre e quando il bottino era stato buono festeggiavano a spese delle carni succulenti della suddetta regina. Si narra che l’ultima Trota Fragorosa fu arrostita alla brace e spiattellata davanti al brigante Gelsomino; questi l’assaggiò, si ruppe un dente, fece una smorfia e risputò: “Porca trota, un rubino!”. Trattavasi in effetti di un piccolo rubino rosa del Monzambico, staccatosi chissà come dal copricapo dell’archimandrita. Fu così che Gelsomino e la sua banda organizzarono seduta stante una spedizione notturna all’Abbazia di San Nilo. Ma qualcuno aveva tradito: i frati dell’abbazia li aspettavano, schierati dietro le colonne del chiostro, ognuno armato di un pesante volume preso nella ricchissima biblioteca…
Eccetera eccetera, la Trota Fragorosa, nel frattempo, è diventata una Trota Favolosa.
Il pensiero va ovviamente a Rodari, al Libro degli errori dove il professor Grammaticus a passeggio legge le insegne (“Cugine economiche”, “Nobili per ufficio”, “Scarpe fatte a nano”), si immagina il referente fantastico (“il Conte Tavolino”), ridacchia, sghignazza, e a volte corregge con la sua matita rossa. Nella Grammatica della Fantasia (capitolo 9, L’errore creativo) Rodari prova a descrivere il fenomeno reale che sta sotto a quello narrativo: i bambini che “sbagliando inventano”, producendo una parola o un’intera espressione che assomiglia ad un’altra ma non è semplicemente una versione corrotta casualmente, ha una sua logica. Due esempi: la “mastichina” (anziché pasticchina) e “San Giuseppe, il padre più cattivo” (invece che putativo) di Gesù. La teoria di Rodari è che i bambini abbiano cercato di dare un senso a delle espressioni altrimenti incomprensibili pescando dalla loro esperienza. In questo modo mostrano un rispetto enorme per il linguaggio pubblico e contemporaneamente ci fanno vedere uno scorcio dei meccanismi di costruzione di quello privato.
Nel caso della mia Trota Fragorosa, invece, l’errore non è nella produzione, ma nella lettura. La versione che credo di aver letto è diversa da quella scritta, come nei fenomeni diversi che vanno sotto il cappello della dislessia. Ho letto in fretta e poi non ho avuto tempo, o voglia, di controllare e correggere. Ho usato una strategia profonda, rapida ma non sicura al cento per cento, ho acquisito un’immagine generale rozza (una parola di cinque lettere con una paio di t e una r che finisce per a) e poi l’ho completata sulla base di informazioni di contesto (i pesci dell’allevamento che avevo oltrepassato pochi chilometri prima). E che dire di quel fragorosa? Forse le fragole allontanate nello sfondo hanno continuato a spingere cambiando la l in r. Forse mi ha aiutato il fatto che in tutta l’espressione ci sono solo due vocali (a , o), e che la loro sequenza è piacevolmente simmetrica (oaaooa), costituendo una struttura solida in cui le consonanti possono essere scambiate senza troppi patemi. Comunque sia, la cosa interessante è che non mi sono fermato lì (altrimenti non mi sarei accorto dell’errore) ma nemmeno l’ho corretto in maniera automatica. Come rallentando tutta l’operazione, mi sono ricavato un intervallo tra un tempo e l’altro, tra la lettura approssimata e quella analitica. In quell’intervallo si è fatto lo spazio per il gioco creativo che ha fatto nascere una storia.
Capita solo a me? Capita a tutti? Succede quando siamo stanchi, quando lasciamo andare la mente in libertà (come quando si guida la moto), oppure quando invecchiamo e la mente si comincia a confondere? O invece è un dono, un’abilità speciale? E si può imparare con l’esercizio? Cioè, invece di puntare all’automatismo, alla velocità e alla chiusura, si potrebbe puntare alla consapevolezza dei processi, alla scelta, all’apertura? Domande, domande. In ogni caso, secondo me questa capacità di stra-leggere Rodari ce l’aveva eccome e l’ha messa a furto con inarrivabile maestrina.
Attenzione: se volete scaricare una versione leggibile offline di questo testo, potete andare qui.
Postfazione (settembre 2020)
Dopo aver completato la prima bozza del nostro lavoro, l’abbiamo
fatta circolare tra un po’ di persone che sapevamo interessate e
critiche; anzi, le sapevamo critiche ma interessate all’uso delle TIC nel campo della conoscenza (e del lavoro, perché no?) in funzione di uno sviluppo caratterizzato da emancipazione, equità, sostenibilità.
Questo è infatti il nucleo del nostro ragionamento, che pensiamo sia
particolarmente importante mettere in circolazione ora, dal momento che
al periodo di emergenza non è seguita una vera e propria elaborazione
culturale ed etica, ma piuttosto la prosecuzione esasperata della di per
sé sterile contrapposizione assoluta tra “digitale-sì” e “digitale-no”.
Ci sono tornate indietro varie osservazioni, sulla base delle quali
abbiamo operato alcuni interventi e scritto queste righe, che forse
avremmo potuto intitolare “Confessioni”, o qualcosa di simile. Abbiamo,
per esempio, inserito al fondo del testo un breve glossario a
proposito delle istituzioni che hanno agito negli ultimi decenni nel
campo delle TIC a scuola: non potevamo infatti presumere che esse
fossero conosciute nemmeno dagli addetti ai lavori, in particolare dai
più giovani, perché non tutte sono sopravvissute al percorso. Abbiamo
preso atto che il nostro dialogo – questa è la forma che
abbiamo deciso di dare a riflessioni che un’esposizione tradizionale
avrebbe rischiato di rendere ancora meno sopportabili – avviene tra due
soggetti che presentano delle sfumature diverse, ma che sul filo rosso
del ragionamento sono (troppo?) d’accordo. Non ci contrapponiamo mai,
non polemizziamo, nemmeno neghiamo l’uno le tesi dell’altro.
Cerchiamo invece e volutamente di convergere su alcuni punti e
prospettive culturali, etici e operativi che ci sembrano importanti per
ribaltare la posizione – destinata a rimanere subalterna alla cultura e
all’agenda degli attuali decisori – di chi si rinchiude nella semplice
negazione e nell’inerte rifiuto del pensiero mainstream
sull’uso delle tecnologie a scuola, che considera l’innovazione
strumento di competizione e, di conseguenza, l’istruzione come
erogazione, pratica e verifica selettiva di skills adattive
allo scenario attualmente prevalente. Abbiamo ripensato a come abbiamo
usato uno strumento potente e tipico dello scrivere su supporto dinamico
e aperto come quello digitale, i link. In linea generale, li abbiamo utilizzati come “citazioni attive”,
anche di materiali nostri, non solo per testimoniare un percorso
pluridecennale che ci ha portato dove siamo ora (senza alcuna intenzione
di restare fermi), ma anche per evitare di riscrivere ciò che avevamo
già esposto altrove.
Marco Guastavigna e Stefano Penge
Introduzione
Estate 2020. Ci guardiamo in faccia – via monitor, of course – e ci rendiamo conto che ambedue siamo in stagione di ripensamenti, ma che entrambi non abbiamo intenzione di mollare: dobbiamo trovare una strada o (meglio) più sentieri per dare un senso a ciò che ha connotato la gran parte della nostra attività intellettuale, l’uso dei dispositivi digitali per migliorare la didattica. Meglio se virtuoso, rivolto cioè non all’innovazione fine a se stessa e alla competizione, ma all’aumento del benessere di tutt* e di ciascun*.
E decidiamo di farci reciprocamente un regalo, un percorso di scrittura, attraverso domande, per quanto possibili stranianti e provocatorie. Ciò che segue è l’intero lavoro.
Dialogo
MarcoG
Eccoci ancora qui a ragionare insieme, come abbiamo fatto a partire almeno da…
StefanoP
Dal 1993, la data di uscita di Io Bambino Tu Computer. Erano gli anni
in cui pensavo ingenuamente che un software educativo avrebbe cambiato
il mondo.
MarcoG
Vero, abbiamo cominciato quell’anno lì; poi ci siamo incrociati più
volte sull’uso delle mappe concettuali e oggi eccoci di nuovo a cercare
di capire il “nuovissimo” di turno. Ovvero la didattica dell’emergenza,
ovvero il distanziamento forzato dell’istruzione, che ha costretto molti
a ripensare il proprio approccio culturale e cognitivo e le proprie
categorie concettuali a proposito del “digitale”.
StefanoP
Infatti. Vanno ripensate e soprattutto criticate perché spesso sono
categorie manicheiste, e questo non è mai una buona cosa. Sono convinto
che sia necessario, soprattutto ora, provare a indicare delle vie
alternative, senza accettare la banale opposizione tra “il digitale è
buono” e “il digitale è cattivo”.
Anzi, sono convinto che si debba partire con il rifiuto della forma
stessa che assume questa opposizione. C’è un soggetto e c’è un
predicato, e in più si tratta di un giudizio di valore.
MarcoG
Lo vuoi insegnare proprio a me?
StefanoP
No, no, abbi pazienza. Cominciamo dal soggetto, il digitale: esiste
davvero una cosa così? Ovvero: le caratteristiche delle esperienze che
facciamo utilizzando i computer grandi e piccoli, locali e remoti, sono
talmente specifiche da permetterci di parlarne come se fossero una sola
cosa, e di opporle alle altre esperienze?
Il secondo aspetto che pone problemi in questa opposizione è il
predicato: il digitale è buono o cattivo? Ma che significa buono? Buono
per qualcuno, per tutti? Buono per uno scopo specifico, per tutti gli
scopi? Buono per oggi, per domani, per sempre?
Vista un po’ da vicino, mi pare, questa opposizione non regge: il
digitale è fatto di tante esperienze diverse, e non si riesce a
riassumerle tutte in un soggetto unico che si possa giudicare e
accettare o rigettare in toto. Di qui la necessità dell’analisi e della
riflessione, meglio se fatta a più cervelli e più mani. Ed è necessario
che a valle della riflessione si possano fare delle scelte, a livello
sia individuale sia di gruppo: questo digitale va bene per questo uso,
quest’altro invece no. Forse a te sembrerà una constatazione ovvia, ma
per me non lo è.
MarcoG
Infatti. Ai tempi in cui abbiamo iniziato a frequentarci mi sembravi
più tecno-ottimista. Per altro, non è la prima volta che ti capita di
cambiare idea, no?
StefanoP
No, e non me ne vergogno. Una volta pensavo che il digitale fosse
tutto buono. Pensavo che le caratteristiche del digitale fossero
talmente potenti da generare un cambiamento obbligatorio nella maniera
di creare e utilizzare la conoscenza. Per esempio, pensavo che il fatto
che il costo (cognitivo, ma anche tecnico e quindi economico) delle
operazioni di scrittura e lettura fosse sostanzialmente identico avrebbe
portato ad una parità di ruoli tra scrittore e lettore, e quindi ad un
cambiamento nella maniera di pensare l’autore, l’autorialità,
l’autorità. Il fatto che la rappresentazione digitale di un testo, o di
una musica o di un quadro, potesse essere facilmente, e indefinitamente,
modificata, copiata, trasformata mi portava a immaginare infiniti modi
di esercitare l’immaginazione creativa. Questi due fatti (il costo
paragonabile tra scrittura e lettura e l’infinita modificabilità di un
documento) dipendono da come è stato immaginato e realizzato il
digitale; ma la loro interpretazione non era affatto scontata. La forma
di determinismo tecnologico di cui in qualche modo soffrivo mi portava a
pensare che ci fosse un solo modo di sfruttare le potenzialità del
digitale, che nella mia testa era il migliore: quello di permettere a
tutti gli utilizzatori di diventare produttori, innescando un circolo
virtuoso per cui ogni prodotto sarebbe potuto diventare materiale di
partenza per altri prodotti e ogni ambiente sarebbe potuto entrare a far
parte di ambienti più ricchi e complessi.
In sintesi, pensavo che la novità tecnica portasse con sé
l’innovazione in maniera quasi automatica, e – secondo punto, più
importante – pensavo che l’innovazione fosse comunque positiva, cioè
indirizzata ad uno sviluppo delle persone, a partire dai bambini che
erano il “pubblico” a cui pensavo praticamente. Non tenevo conto, per
inesperienza, degli interessi dei singoli e dei gruppi professionali che
a volte possono prevalere su quelli di tutti. Non mi ero soffermato
sulle difficoltà, cognitive e affettive, delle competenze necessarie.
Pur conoscendo la storia dell’informatica, che è una storia anche di
imprese e prodotti, di marketing, mi ero concentrato solo sulle
potenzialità che qui in Italia non erano state sfruttate. Non tenevo
conto della possibilità che quei fatti tecnologici potessero essere
utilizzati o no, piegati in una direzione o in un’altra. Su questo
torneremo più avanti, immagino.
Dopo quasi trent’anni di tentativi di creare ambienti di
trasformazione digitale (cioè software educativi) penso di aver
raggiunto una consapevolezza banale: non è sufficiente che una cosa sia
tecnicamente possibile perché venga anche realizzata. Tutto quello che
pensavo di aver capito delle caratteristiche del digitale resta
probabilmente vero, aiuta a capire le potenzialità, ma non basta a
garantirne uno uso sensato e rivolto allo sviluppo di tutti.
Del resto, cambiare idea ed essere anzi consapevoli di poterlo fare sono risorse intellettuali. A te non capita mai?
MarcoG
Anche nella mia storia personale con il “digitale” (più se ne parla
più risulta sconosciuto!) ci sono momenti di profonda trasformazione
della prospettiva.
Inizialmente, ho colto soprattutto quelli che mi sembravano gli
aspetti positivi e più promettenti, in particolare la plasticità del
supporto – e qui ti devo da sempre parecchio – come spazio operativo e
cognitivo a vocazione propedeutica, in particolare per la scrittura di
testi, e le potenzialità della organizzazione ipertestuale di senso e
significato in rapporto alla complessità del sapere umano.
Ci torneremo, anche perché si tratta di aspetti tuttora
sottoutilizzati, sul piano non solo didattico, ma anche professionale e
intellettuale.
Qualcosa ha cominciato a cambiare nella mia testa a inizio millennio,
quando ho cominciato a intravvedere lo spettro del Pensiero
(tecno)Pedagogico Unico, di matrice istituzionale: incubatore principale
ANSAS-Indire con la rete degli ex IRRSAE, poi IRRE, perno organizzativo
e fulcro dei finanziamenti il Ministero, anche nelle sue articolazioni
regionali. Sulla base di un’adesione superficiale e spesso posticcia al
paradigma costruttivista, presentato in forma assoluta come strumento
per rimediare ai molti limiti della scuola, sono state condotte numerose
campagne massive di formazione, in genere legate alla distribuzione di
strumenti, per esempio le LIM, e/o all’infatuazione per il marchingegno
elettronico del momento: il caso più spassoso i learning object,
passati in breve tempo dagli altari della novità alla polvere del
fallimento. Sarebbe per contro interessante ricostruire bene le vicende
di due istituti – l’Osservatorio Tecnologico del Miur e l’ITD CNR – che
si sono invece caratterizzati per serietà della ricerca e senso critico.
In parallelo, l’editoria privata tradizionale – probabilmente perché
incapace di definire un modello di business nel campo dei
prodotti digitali, in particolare per quanto riguarda la versione
elettronica dei libri – si è rapidamente adeguata ed ha adottato
l’intera gamma degli slogan e delle mode (making, robotica, internet of
things,gaming e – peggio! – gamification, storytelling, tinkering e così
via) via via messi in campo dalla forma culturale che caratterizzava la
governance mainstream, nel frattempo passata dalle campagne di
diffusione massiva al modello dei bandi di concorso tra le istituzioni
scolastiche. Al centro di tutto questo, non un riferimento pedagogico
vero e proprio, ma il – deleterio e fallimentare, come vedremo –
concetto di innovazione, che era alla base di un processo culturale e
organizzativo che si configurava sempre più come un “dispositivo” di
potere capace di influenzare il sapere e le scelte in proposito.
In questo contesto, ho cominciato a maturare opinioni sempre più
differenti da quelle precedenti. Non una vera e propria abiura, ma la
consapevolezza che era (ed è) più che mai necessario svincolarsi e
svincolare colleghi e studenti dall’entusiasmo acritico e da quel
determinismo ottimistico di cui parli anche tu.
Più o meno per caso, poi, qualche anno fa mi è tornato in mano un volume che avevo comperato e mai letto, “Gli algoritmi del capitale: Accelerazionismo, macchine della conoscenza e autonomia del comune”, reperibile anche in rete.
Questo libro è stato la prima di una serie di letture che mi hanno
fatto scoprire prima e approfondire poi l’esistenza di numerose voci
fortemente alternative e – appunto – radicalmente critiche di ciò che,
con sfumature di significato importanti ma per ora trascurabili, viene
chiamato “capitalismo digitale” o “capitalismo cognitivo” e,
ultimamente, “capitalismo di sorveglianza”. L’elemento comune di tutte
queste posizioni (significativamente poco o per nulla considerate
dall’accademia nazionale) sono l’individuazione, l’analisi e la messa in
discussione etica e civile, e quindi politica, del massiccio, globale e
quotidiano processo di appropriazione della conoscenza da parte delle
piattaforme multinazionali di intermediazione (Google, Facebook, Uber.
Amazon e così via). Questi giganteschi dispositivi digitali non solo
hanno accumulato e accumulano immensi profitti attraverso il ciclo di produzione e sfruttamento dei Big Data,
ma – per quanto riguarda gli studenti e molti insegnanti e dirigenti
scolastici attraverso il concetto di innovazione – sono riusciti a
costruire una rappresentazione del mondo in cui le skills necessarie ad
adeguarsi al loro funzionamento sono diventate una dote operativa e
culturale imprescindibile, di cui l’istruzione pubblica deve farsi
carico o almeno palestra di esercizio.
StefanoP
Anche secondo me le strategie delle piattaforme capitalistiche, esplicite o meno, vengono da lontano. Oggi si propongono come ambienti di intermediazione digitale tra persone: dai motori di ricerca generici e specializzai ai social network system, ai sistemi di condivisione e distribuzione di media. Ma non sono strategie improvvisate, derivano dalla forma capitalista di produzione di valore, ma anche dalla storia dell’informatica e dal suo scopo generale di creare una versione del mondo più trattabile dell’originale. E a monte c’è la distinzione pubblico/privato, quella che in pratica è negata dalle aziende come Google che si presentano come superiori agli Stati nazionali. Lo fanno assumendo alcune caratteristiche del pubblico: il motto di Google (“Don’t be evil”) non suona come un motto aziendale. Forse, anzi, non dovremmo parlare di azienda, perché ci fa immaginare un soggetto semplice, con delle persone che prendono decisioni limitate che hanno per scopo il profitto immediato. Il discorso è troppo ampio per affrontarlo compiutamente qui, ma va almeno citato: nel contesto statunitense che il privato si sostituisca allo stato è visto come non solo logico ma anche come positivo. Nel nostro contesto storico e sociale, un po’ meno; ma è in quella direzione che stiamo andando?
MarcoG
Temo proprio di sì. Anche se in questo processo il distanziamento
della didattica è stato un avvenimento molto significativo, perché ha
segnato, almeno a mio giudizio, il crollo epistemologico del concetto
dominante quest’ultimo periodo della scuola, l’innovazione, e di tutti i
suoi derivati, in particolare la cosiddetta didattica innovativa. È
vero che vi è stato (soprattutto nei primi giorni del lockdown
della didattica erogata e interagita in prossimità) addirittura chi ha
avuto il coraggio di sostenere che il nostro sistema scolastico era di
fronte a una straordinaria opportunità – appunto – di innovazione, ma
questa posizione ha rivelato quasi immediatamente la propria assoluta
insensatezza. Lo rendevano concretamente inapplicabile troppi e subito
evidenti fattori: diffuso deficit di dispositivi adeguati alle esigenze
comunicative e debolezza o mancanza delle connessioni alla rete in
alcune zone del Paese e/o fasce sociali. Per non parlare dello
smarrimento delle famiglie e degli insegnanti a fronte all’assenza di
strategie e alla mancanza di pratiche per venire incontro ad allievi in
particolari condizioni personali, della dispersione delle relazioni e
della comunicazione e così via.
Non a caso – anche se quasi nessuno ha avuto il coraggio di parlare
in modo aperto di “crisi” organizzativa e metodologica – è prevalso
l’approccio fondato sull’emergenza. La scelta di adoperarsi per ridurre
il danno indubbiamente determinato dalla distanza tra pratiche di
insegnamento e allievi, oltre a essere più congruente con la realtà, era
accettabile anche da parte di chi fino a quel momento aveva sostenuto
posizioni di assoluto “tecno-snobismo” nei confronti della comunicazione
su base digitale, che così ha potuto avviare una qualche interazione
con i propri allievi. Purtroppo, non senza che alcuni cantori della
“centralità dei docenti” nei percorsi di apprendimento attivassero la
retorica della generosità professionale e personale.
Del resto, affrontando la questione su di un piano più generale – mi
verrebbe da dire teorico – di fronte all’imperante necessità di
ricostruire e di governare rapporti comunicativi efficaci, non poteva
certo funzionare la visione più diffusa dell’innovazione e dei suoi
derivati, ovvero la soluzione di continuità, la disruption a
vocazione competitiva, vista come rottura e come adattamento
necessitato, in una sorta di darwinismo tecnocratico. Questo approccio,
per altro, ha orientato il Piano Nazionale per la Scuola Digitale, che
ha costruito un sistema di istruzione pubblica a fortissime
differenziazioni interne, fatto di scuole-polo, con infrastrutture
potenti e centri di formazione, sempre più contrapposte a istituti
emarginati, stabilmente a rimorchio, ripetutamente perdenti nei bandi e
nelle altre iniziative concepite sul modello della gara, del “talent”,
impostazione che per altro ha caratterizzato e funestato l’autonomia
scolastica su vari altri piani, sia logistici sia culturali.
Non è di nuovo un caso che fosse diffusa la locuzione “fare
innovazione” o che si parlasse, per esempio, di ambienti “innovativi” – e
non innovati. Queste scelte lessicali non sono un vezzo, ma il modo di
assegnare deterministicamente al “nuovo” – in particolare se “digitale” –
il ruolo di fine anziché quello di mezzo. Nella scuola, insomma, era
dominante la visione tecnocratica, che – come abbiamo già affermato –
sostituisce all’idea di progresso e di miglioramento quella di rottura.
La mancanza di una vera declinazione dei bisogni di apprendimento e di
un’autentica analisi delle potenzialità delle tecnologie digitali dal
punto di vista operativo, cognitivo e culturale ha fatto il resto,
consentendo anzi, nelle fasi precedenti il distanziamento forzato, che
non vi fosse alcuna autentica valutazione delle implicazioni effettive
delle “innovazioni” introdotte.
Tornando agli aspetti concreti della (prima?) fase emergenziale, non è
un caso che molti insegnanti, soprattutto nelle realtà più complicate,
abbiano scelto di utilizzare il “digitale” che conoscevano già e che
quindi erano in grado di controllare e di dotare rapidamente di senso e
di scopo. Penso all’adattamento di WhatsApp come strumento di
interazione con i genitori e quindi all’indicazione di compiti da
eseguire. Penso alle videoconferenze (potenzialmente gestibili da più
relatori) utilizzate per riprodurre il modello della lezione frontale,
uno-a-molti, per altro utilizzatissimo anche in ambito universitario.
Penso agli interrogativi su come condurre le verifiche, intervenuti ad
onta delle paternalistiche indicazioni emesse dopo la fase della
spontaneità: i social hanno spesso rievocato modalità di interrogazione
davvero grottesche, volte ad impedire suggerimenti ed altri trucchi da
parte degli studenti, dal loro canto attivissimi in forme di resistenza
all’impegno (dalle webcam in stallo perenne, al pauperismo dei “giga”).
StefanoP
Questa delle “nuove tecnologie educative” è una storia vecchia. Un investimento, economico e umano, su qualcosa il cui valore sta solo nell’essere nuovo. Il vocabolario online Treccani dice che innovare significa mutare uno stato di cose, introducendo norme, metodi, sistemi nuovi. Se è questo il senso, allora la didattica innovativa non dovrebbe essere solo nuova, ma aprire un nuovo corso storico. Supponendo a) che il vecchio non funzioni bene, e b) che il nuovo sia migliore. Qui non entro nella discussione per il semplice motivo che questa novità è vecchia di decine e decine di anni, e personalmente sono stato coinvolto negli ultimi trenta nel tentativo di fare qualcosa di educativo con i software; quindi per me di nuovo, nel digitale, non c’è proprio nulla. Ma sono d’accordo con te che è nuovo il contesto emergenziale, sono nuove l’attenzione e le discussioni che improvvisamente si sono accese sulle tecnologie applicate alla didattica. Cosa è successo stavolta? Che i docenti si sono visti costretti ad usare computer, telefoni, webcam, microfoni per fare lezione. Hanno dovuto capire come si fa a tenere alta l’attenzione degli studenti, a individuare lo studente che bara, il genitore che si impiccia troppo, attraverso la ristretta banda informativa di un audio-video. Hanno dovuto cercare e chiedere aiuto ai colleghi per trovare strumenti e servizi gratuiti per la valutazione, contenuti già pronti per sostituire il loro lavoro quotidiano con la lavagna e la voce. E per la prima volta, questo bagno non ha riguardato solo una piccola parte del corpo docente, ma proprio tutti, dalla scuola dell’infanzia all’università. Chi aveva seguito dei corsi di formazione ha scoperto che erano invecchiati precocemente, chi non l’aveva fatto ha potuto lamentarsi di non essere stato messo in condizione di lavorare.
Sono ricostruzioni chiaramente parziali e un po’ ridicole, mi rendo conto. Le faccio solo per giustificare il fastidio con cui non solo quel modo di usare il “digitale”, ma qualsiasi modo viene percepito adesso dalla maggioranza dei docenti, e direi anche degli studenti e dei genitori. Basta didattica a distanza, basta computer, torniamo al porto tranquillo della presenza e della prossimità. Non perché sia meglio, ma solo perché lì le acque sono placide. Bene, ma non è possibile. E quindi? Usiamolo facendo finta che non ci sia? Ignoriamolo, come un parente poco presentabile? Questa trasparenza da lavoratore domestico è quella che in fondo vorrebbero i grandi venditori di servizi digitali: un maggiordomo che c’è ma non si vede, e piano piano diventa indispensabile anche per legarsi i lacci delle scarpe.
A voler essere pignoli, queste raffigurazioni che stiamo facendo –
che speriamo esagerate – testimoniavano a loro volta l’esigenza di
continuità perfino nell’ambito di relazioni fondate su sfiducia e
disistima.
Le pratiche didattiche innovative, dal canto loro, hanno spesso
mostrato tutta la propria intrinseca debolezza. Per esempio, si sono
rivelati del tutto inutili a fronteggiare l’emergenza i “saperi
aggiuntivi della modernità”, in particolare coding e il pensiero computazionale.
Ancor più cocente la sconfitta della multimedialità – intesa come
fruizione di audio e soprattutto di video – sostitutiva della
testualità, una forma di provvedimento dispensativo davvero subdola
perché, presentata come scelta positiva, esclude invece chi ne è vittima
da esperienze di apprendimento fondamentali. Il tutto corredato da un
altro dei terribili slogan della banalizzazione dell’imparare: rendere i
contenuti “accattivanti”.
Insomma: l’innovazione autoreferenziale poco aveva da dire e da dare e
non ha sedimentato alcunché. La didattica innovativa esce dal lockdown
dell’istruzione in prossimità con le ossa rotte.
Non ti pare?
StefanoP
Innovativo, accattivante, moderno… È vero che prima ancora che le tecnologie bisognerebbe ripensare il discorso sulle tecnologie (non solo digitali). Sono parole che usiamo senza molta attenzione, una volta che abbiamo deciso, o che ci hanno convinto, che hanno un valore a prescindere dal loro contenuto. Importanza del lessico ma anche della grammatica, della retorica: l’uso del singolare (il digitale, la didattica a distanza, la didattica digitale integrata) invece del plurale, le categorie dei media (a distanza, in presenza) usate al posto di quelle didattiche, le sigle che diventano troppo facilmente concetti (DAD, DDI,BYOD). Non è solo un problema della scuola: basta vedere come si intende oggi lo “smart working”. Di questo schiacciamento dei significati delle parole delle conoscenza sul loro contorno tecnico si potrebbe parlare per ore.
MarcoG
Del resto questo era – e rischia di continuare a essere – l’approccio
globale: le “nuove” tecnologie introdotte per ragioni puramente di
mercato.
StefanoP
In generale è vero, nel senso che i tentativi di trasformare l’introduzione di uno strumento nuovo in una occasione di miglioramento e di sviluppo della didattica sono rimasti isolati e non hanno smosso il mondo, come invece hanno fatto le campagne di promozione di sistemi operativi, di suite per ufficio e di browser, di laboratori linguistici e di LIM. Ma secondo me il punto non è più quello dei prodotti: ora il vero mercato è quello dei dati, a cui del resto abbiamo già accennato. Non è un caso che l’espressione che si usa per definire questo millennio è “i dati sono il nuovo petrolio”.
MarcoG
Non capisco cosa c’entrano adesso i dati…
StefanoP
Qui non abbiamo solo nuovi prodotti che si gettano su un mercato esistente, abbiamo un mercato che si crea quasi da zero grazie a questi servizi. Provo a spiegarmi meglio (ma è un po’ lunga, mettiti comodo). Ragionando in termini strettamente economici, il modo di produzione di reddito capitalistico (semplificando all’estremo) richiede una quantità di un bene (la “materia prima”) e dei mezzi di trasformazione massivi. Materie e mezzi hanno un costo tale da richiedere un grande investimento che non può essere fatto a livello artigianale o familiare. Da questo punto di partenza puramente dimensionale derivano gli altri aspetti che conosciamo bene: la riproducibilità tecnica che richiede la standardizzazione del prodotto, i magazzini necessari per lo stoccaggio delle merci in attesa della distribuzione capillare verso gli acquirenti finali, la comunicazione pubblicitaria che punta a stimolare il consumo per abbassare i costi di magazzino, eccetera.
Cosa succede se la materia prima sono i dati, le merci sono servizi digitali e i mezzi di trasformazione sono computer? Ovviamente perché si avvii il pesante volano capitalista ci vogliono tanti dati e ci vogliono computer molto potenti; perché le merci siano acquistate bisogna che tutti i consumatori abbiano gli strumenti per consumarle e siano spinti a farlo. Non è difficile capire Google in questi termini.
Ma da dove vengono le materie prime digitali? Possiamo immaginarle divisi in tre categorie. I dati si estraggono prima di tutto leggendo fenomeni analogici e assegnando un numero: sensori che catturano la luce, il suono, l’umidità. Questi dati sono abbastanza oggettivi, anche se portano con sé almeno le coordinate spazio-temporali del rilevamento. Poi ci sono i dati che hanno senso solo se riferiti a qualcuno, e derivano dal rapporto di quel qualcuno nel contesto: la posizione assoluta, calcolata tramite triangolazione satellitare o usando le celle dei dati, oppure relativa ad altri soggetti. Un terzo tipo di dati, ancora più centrati sul soggetto, è quello relativo al nostro uso dei servizi digitali stessi. Questo tipo di dati è quello che si sposa alla perfezione con il modello capitalistico perché genera un accumulo a valanga: più utenti usano un servizio, più la qualità di quel servizio migliora e più altri utenti lo useranno. Basta pensare a come funziona Waze, l’app israeliana ora di proprietà di Google: segnala il traffico e prevede i tempi di percorrenza usando i dati degli utenti che usano l’applicazione stessa. Peraltro, in questo modello di business, non è l’utente che paga il servizio, ma le aziende “partner” a cui Waze vende spazi pubblicitari ultra contestualizzati, esattamente come fa Google Maps. Lens/Socratic, l’app di cui si è parlato di recente in connessione all’apprendimento della matematica, è basata sullo stesso principio.
La trasformazione della qualità in quantità non è un’idea nuova: corona il sogno di Galileo, è la dimostrazione che davvero il mondo è scritto in caratteri matematici. Già la fisica quantitativa, quella nata appunto nel Seicento, usava la matematica per elaborare i dati e prevedere il futuro, basandosi sulle regolarità dell’esperienza; ma l’informatica offre la possibilità di conservare le rappresentazioni numeriche del mondo e poi usarle al posto del mondo stesso. Sono i modelli digitali, non più solo matematici; sono i software che simulano dinamicamente un pezzo di mondo. L’ultimo e importantissimo passo è quello dell’interfaccia sensoriale con i modelli, quella che ci permette di interagire con queste simulazioni come se fosse realtà. Il modello viene rappresentato in modo significativo per noi (la previsione di pioggia sotto forma di nuvolona nera) e ci vengono date delle maniglie per manipolare la simulazione (spostare il centro delle previsioni nello spazio o nel tempo). Ai tempi dei miei ragionamenti astratti parlavo di dati, struttura e interfaccia come i tre componenti di qualsiasi software. L’interfaccia-utente è quella che permette di interagire con i modelli, e dal tracciamento delle interazioni si generano nuovi dati. Così siamo tornati al punto di partenza: i servizi digitali basati su dati producono i dati stessi. È una specie di moto perpetuo che produce valore.
Come ci sembra naturale la fisica quantitativa che ha sostituito quella qualitativa, così ci sembra naturale che ogni fenomeno possa essere tradotto in dato digitale. Non ci facciamo più tante domande e diamo per scontato che il rispecchiamento digitale sia sempre possibile e che sia perfetto.
Dietro la digitalizzazione c’è però sempre un filtro. Non vengono presi in considerazione tutti gli aspetti del mondo, come è ovvio (altrimenti la mappa sarebbe il territorio). Alcuni aspetti sono più interessanti, perché possono produrre valore. Altri si possono tranquillamente trascurare. La parola “rispecchiamento” ci dovrebbe fare pensare subito che lo specchio offre un’immagine diversa dal reale, che dipende dalla curvatura della superficie, dalla luce, dall’umidità. Insomma, tutto tranne che fedele.
Quando si acquisisce un’immagine con uno scanner o quando si fa una foto con un telefono si prendono solo alcuni punti e si buttano gli altri. Quanti punti? Dipende dalla memoria disponibile, dall’uso futuro, dalla potenza di calcolo che si può usare per trattarli. E cosa prendiamo di ogni punto? La luminosità, il colore, la distanza? Prendiamo un solo dato per ogni punto, oppure varie versioni a distanza di qualche centesimo di secondo, da posizioni leggermente diverse, che poi mettiamo insieme per ottenere un’immagine “migliore”?
Il problema è che tendiamo a pensare che la rappresentazione digitale sia perfetta; esattamente come pensiamo che, se un’informazione (un libro, un articolo, un prodotto) non è citata da una risorsa web, non esiste, O peggio, anche se esiste, ma non è censita da Google o da altri motori di ricerca, non esiste lo stesso. Ci abituiamo all’idea che quello che non è rispecchiato digitalmente non esiste affatto.
C’è un secondo senso per cui il rispecchiamento non è assoluto: i numeri dell’informatica sono sempre discreti, a prescindere dal fatto che si usi la numerazione binaria o meno. Un orologio digitale permette di rappresentare solo 86.400 secondi in un giorno. Non c’è modo di rappresentare quel momento che stra tra le 22:02:59 e le 22:03:00 . Quando si usano tre interi compresi tra 0 e 255 per rappresentare un colore naturale (ad esempio rosso, verde e blu) si stanno definendo 16 777 216 colori, e quindi si sta rinunciando a rappresentare gli altri colori possibili; cioè si decide che alcuni colori naturali che sono diversi verranno rappresentati come lo stesso colore.
Anche in questo caso, l’abitudine ci spinge a trascurare questo filtro e a immaginare che il tempo sia il tempo digitale e lo spazio dei colori sia quello del sensore CCD del nostro telefono.
Ma l’immagine memorizzata è fin da subito manipolata da un software. Che fa cose ancora più complesse: non si limita a trascurare dei dati, ma ne crea di nuovi mettendo insieme quelli che riceve, a volte secondo le nostre indicazioni (come per i filtri creativi), a volte senza – come quando i dati creati al momento di scattare la foto (data, luogo, marca, modello) vengono inviati al servizio “cloud” che usiamo per la conservazione delle immagini stesse e magari rivenduti per creare statistiche aggiornate. Alla fine l’immagine che salviamo nella memoria del telefono è frutto di un “rispecchiamento” della realtà che è molti di più di una duplicazione in scala ridotta e portatile.
È questo stesso meccanismo che è alla base della profilazione dei comportamenti degli utenti. Un profilo è una composizione di più valori lungo diverse dimensioni. Lo scopo è quello di classificare, di mettere nella stessa classe comportamenti e persona che “in realtà” sappiamo essere diversi. La conversione della vita analogica in profilo digitale elimina necessariamente delle aree intermedie, e quindi standardizza le persone; non solo, ma tratta i dati, li modifica, crea altri dati sulla base di quelli.
Qui c’è la difficoltà centrale, a mio avviso: da un lato, questa creazione di una realtà parallela è naturale per l’informatica, è così che funziona anche nel caso più trasparente; dall’altro, gli effetti negativi sulle nostre vite non sono attribuibili alla cattiveria dell’algoritmo che crea un profilo a partire da una collezione di dati, ma ad una scelta precisa nel progettare il software sottostante e soprattutto nello scegliere quali pesi vanno utilizzati per attribuire più valore ad un dato anziché ad un altro per categorizzare un comportamento.
MarcoG
Secondo te questo significa che non possiamo fare niente?
StefanoP
No, certo, un margine di azione c’è sempre. Non è facile vedere quale…
Io sto maturando una convinzione “tattica”. Dobbiamo ragionare su
come depurare i dispositivi digitali dalla subalternità alle skills del
capitalismo di sorveglianza da una parte e della immotivata e anzi
controproducente discontinuità professionale dall’altra per verificare
se possano contribuire non solo a ridurre il danno ma anche a migliorare
l’apprendimento. Il ministero ha fatto scelte ancora una volta molto
chiare: partnership con le multinazionali digitali e rinuncia
alla realizzazione di una infrastruttura pubblica, negoziata, flessibile
e aperta a modifiche. Si preferisce insomma adeguarsi allo scenario
prevalente presentandolo come l’unico possibile, senza metterlo in
discussione, e quindi scaricare sui singoli utenti il carico
dell’autotutela e della adozione di comportamenti corretti, per esempio
nei confronti della diffusione intenzionale e manipolatoria di campagne
d’odio o di notizie false, ricorrendo alla già di per sé ambigua nozione
di “cittadinanza digitale”, per di più ridotta a confusa forma di
insegnamento.
Esistono però anche altri scenari e altre impostazioni, con intenzioni alternative a quelle dei dispositivi mainstream:
dal software libero alle piattaforme destinate alla cooperazione non
tracciata e ai motori di ricerca che non mettono in atto la profilazione
degli utenti.
Sei d’accordo sul fatto che ciò dovrebbe diventare patrimonio concettuale e operativo condiviso?
StefanoP
Condiviso da chi?
MarcoG
Da parte di tutti coloro che si battono per un approccio critico alla
“questione digitale” che non sia soltanto respingimento, ma
progettazione alternativa, difesa della libertà di insegnamento come
garanzia culturale, diritto collettivo e pratica dell’emancipazione
professionale e intellettuale.
StefanoP
Non sono ottimista come te, anche se sono vent’anni che lavoro solo con software libero… Comincio col riconoscere che hai ragione a mettere in relazione la licenza del software con tutto quello che abbiamo detto. Non lo fanno in tanti, non lo fa (sempre) il Ministero, ma nemmeno la UE nei suoi questionari sull’uso delle tecnologie digitali nell’era del COVID se ne ricorda. Quella del software libero è una questione etica ma anche sociale, nel senso che rilasciare il codice sorgente con una certa licenza modifica la maniera di lavorare, di apprendere, di vendere e comprare, e non solo di utilizzare un software. Il software libero non avvantaggia solo l’utente finale, che non spende soldi per acquistarlo, ma soprattutto l’ambiente dove l’utente agisce. Però bisogna essere franchi a costo di essere sgradevoli: il mito del software per imparare la matematica sviluppato da un genio sconosciuto nascosto nel suo scantinato e regalato al mondo per amore dell’umanità è, appunto, un mito. Certo, ci sono casi di docenti con un po’ di competenza di programmazione che per aiutare lo studente amico del figlio abbozzano un software per fare la tabelline in Visual Basic (l’ho fatto anch’io). Ci sono casi di informatici che hanno un lavoro tradizionale ma di notte lavorano ad un progetto personale. Ma non è su questi casi sporadici che si costruisce una soluzione sostenibile al problema di come produrre, distribuire, manutenere del software per la scuola.
MarcoG
Proprio tu che lavori allo sviluppo di software open source non sei a favore del software gratis per tutti?
StefanoP
No. O meglio: sono a favore di una dotazione di software educativo a tutte le scuole, come ci sono banchi, attaccapanni e cestini, ma anche lavagne, cartine e mappamondi, laboratori di fisica e chimica e palestre. Questo però non significa che chi produce attaccapanni e mappamondi debba consegnarli gratis alle scuole: qualcuno dovrà progettarli e costruirli, qualcuno dovrà consegnarli e ripararli quando si rompono, qualcuno di cui ci si possa fidare e che si possa chiamare in qualsiasi momento. Allo stesso modo, qualcuno deve studiare, progettare, sviluppare, testare, distribuire e aggiornare il software, esattamente come qualsiasi altro artefatto; non si può pensare che questo lavoro posso essere svolto gratuitamente da volontari sparsi a caso nel mondo.
MarcoG
E allora Wikipedia? La cito come esempio di iniziativa libera, frutto
del lavoro di volontari in opposizione alle enciclopedie prodotte da
dipendenti pagati.
StefanoP
Appunto, Wikipedia costa circa 2,5 milioni di dollari l’anno solo di hosting, e 40 milioni di dollari di personale. La fondazione che gestisce oggi Wikipedia ha 350 dipendenti e si sostiene con donazioni milionarie da parte di Google, di Virgin, di Amazon, di George Soros, di altre fondazioni private e delle donazioni dei singoli, arrivando ad un bilancio di 120 milioni di dollari. Wikipedia nasce come progetto profit (Nupedia) da parte di un azienda che aveva provato un po’ di tutto, compreso il porno (Bomis); ma siccome il modello di business non funzionava, viene trasformata in un progetto no-profit nel 2003 con la creazione di una fondazione, Wikimedia. Insomma, tenere in piedi un progetto delle dimensioni di Wikipedia non richiede solo persone di buona volontà ma anche una visione imprenditoriale, molta organizzazione e tanti soldi.
Il mondo dell’opensource è composto in buona parte da aziende (in generale PMI, ma alcune piuttosto grandi) che pur permettendo il download del codice sorgente forniscono a pagamento software opensource garantito, con un contratto annuale che assomiglia molto ad una licenza e comprende assistenza e supporto. Un esempio che molti conoscono è Moodle Pty Ltd, la società australiana che gestisce lo sviluppo della piattaforma di e-learning Moodle. Con circa 150 impiegati, Moodle si sostiene vendendo direttamente servizi (hosting, formazione) ma anche con i contratti annuali dei partner certificati. Nel 2017 ha ricevuto un investimento di 6 milioni di dollari da un fondo di proprietà della famiglia Leclerq (quella di Decathlon). Un altro esempio è la società Canonical ltd che mantiene Ubuntu, una distribuzione Linux molto conosciuta. Fondata da un miliardario sudafricano (uno di quelli che si sono pagati un viaggio turistico sulla Soyuz), Canonical ha oggi 600 dipendenti; dopo averne licenziati 200, nel 2017 ha avuto un margine operativo di 2 milioni di dollari.
Qui siamo molto lontani dallo sviluppatore che di giorno lavora alla posta e di notte sviluppa il suo motore di ricerca alternativo: sono aziende for profit, che hanno dei costi, dei ricavi, un bilancio. Non c’è niente di male, ma queste aziende non vanno confuse con associazioni di volontari idealisti. A volte si usa la distinzione tra “opensource” e “free software” proprio per distinguere tra un approccio funzionalista e uno etico-politico. Ci sono entrambi, vanno tenuti presenti entrambi.
È vero che una parte del software libero è anche gratuito; questo è un volano potente ed è significativo soprattutto per gli sviluppatori singoli e le micro-imprese che possono permettersi di sviluppare software senza dover pagare migliaia di euro di sistemi operativi e strumenti di sviluppo, o per le piccole società che offrono hosting a prezzi bassi utilizzando server Linux con Apache, MariaDB, Php, Python etc. Ma non avrebbe senso pretendere che questi servizi venissero offerti gratis alle scuole, perché sarebbe solo un modo per privilegiare le grandissime aziende che possono permettersi di investire in pubblicità e offrire piattaforme e banda in cambio di un ingresso dal portone principale della Scuola.
E allora dove sta il free? Come si dice: il software libero è free nel senso di free speech, non nel senso di free beer. Il software libero ha il codice sorgente aperto, che significa che chi lo ottiene può ispezionarlo, leggerlo, imparare da esso; ma anche modificarlo e ridistribuire la versione modificata. Questo vuol dire che può essere ragionevolmente sicuro che non ci siano parti nascoste che rubano dati personali e li spediscono allo sviluppatore all’insaputa dell’utente; vuol dire che se lo sviluppatore muore, il progetto può continuare. Vuol dire che progetti più grandi si possono costruire utilizzando librerie e parti di progetti più piccoli. Questi aspetti sono molto più importanti del fatto contingente che un software sia gratuito: potrebbe essere gratuito ma non libero, cioè senza codice sorgente aperto, come il cosiddetto freeware o il software di pubblico dominio.
Insomma, software libero è un modo di sviluppo del software che si adatta particolarmente bene al software educativo; ma bisogna trovare un modo di sostenerne economicamente lo sviluppo nel tempo, altrimenti si finisce per fare un guaio peggiore: far scomparire dalla faccia della terra quel tessuto di sviluppatori, di piccole imprese, di cooperative che potrebbero costituire un’alternativa alle multinazionali digitali. E la scuola potrebbe fare la sua parte.
Ti ho messo in crisi?
MarcoG
No, sei stato ancora una volta illuminante e mi hai donato birra
intellettuale, anche se nel mio caso analcolica, e mi spingi a ragionare
meglio e più da vicino sul tema del software libero, che per un lungo
periodo ho sottovalutato, considerandolo la versione naïf di quello commerciale.
È vero: il software in generale – libero o commerciale – esercita la
“dittatura del calcolo” cui tu hai accennato e di cui parla in modo
particolarmente illuminante Zellini,
e ogni realtà rispecchiata è il frutto di computazione in funzione di
variabili e di criteri che sono per forza delle cose frutto di scelte
vincolanti e limitative. Ma il free software dà un messaggio che vale la
pena di cogliere, valorizzare e diffondere, in contrapposizione
esplicita con l’assetto mainstream: la conoscenza è cooperazione sociale
in continuo evolversi dinamico e nessuno se ne può appropriare in forma
esclusiva o anche solo dominante. Di conseguenza, la costruzione di
dispositivi digitali che influenzano la conoscenza e il lavoro e le
modalità del loro impiego, individuale e collettivo, deve fare i conti
con i diritti e non determinare condizionamenti.
Sono convinto, insomma, che dobbiamo continuare a ragionare in modo
critico, in particolare sul capitalismo di sorveglianza, ma che sia
anche urgente e possibile dare indicazioni alternative, per una cultura
positiva e pratiche fattive nel campo delle tecnologie digitali
dell’informazione e della comunicazione per la didattica.
Dobbiamo, cioè, diventare e considerarci capaci di applicare e
diffondere una prospettiva differente e di concepire e praticare
soluzioni diverse dal rifiuto aprioristico, versione del “senza se e senza ma” destinata a subalternità operativa e ad asfissia politica e – quindi – ad auto-emarginazione.
È quanto mai evidente, infatti, che – nonostante il fallimento della
prospettiva dell’innovazione – le piattaforme capitalistiche di
intermediazione digitale proprietaria hanno sfruttato il lockdown
e le richieste e le disponibilità di ministero, di singoli istituti e
di molti insegnanti per estendere e rafforzare la propria egemonia,
fondata sulla conoscenza sorvegliata e sull’estrazione di dati spacciate
per cooperazione e per altro già molto diffusa nell’istruzione in
generale e nelle varie scuole.
E quindi, se vogliamo riuscire a resistere in misura efficace
all’irruzione della logica e della logistica tecno-liberiste
nell’istruzione della Repubblica, secondo il “dispositivo digitale
mainstream”, dobbiamo prioritariamente svincolarci dall’uso delle
categorie e del lessico totalizzanti e polarizzanti – per esempio, “la”
didattica a distanza, “il” digitale, “le” tecnologie – per costruire
quadri concettuali autonomi, divergenti, a vocazione esplicitamente
emancipante.
In particolare, non possiamo continuare a (lasciar) confondere la
sfera e il discorso pubblico con l’insieme dei rapporti di comunicazione
mediati da aziende private multinazionali, come troppi fanno, per
esempio rappresentandosi Facebook come un’agorà.
Penso che sia utile approfondire il tema della conoscenza così come i
differenti dispositivi digitali – sì, perché possono non essere tutti
uguali! – se e ce la rappresentano.
La “platform society” del capitalismo digitale, come abbiamo già
accennato, pratica continui processi di appropriazione unilaterale della
rete internet e dei dati e dei comportamenti degli utenti. Non
stupiamoci: questa logica produce strumenti di accumulazione, di
profitto e considera la conoscenza come una risorsa per la creazione di
valore economico ed aspira ad accumularla e sfruttarla in modo
tendenzialmente monopolistico.
Dell’atteggiamento culturale sotteso al movimento per il free
software, invece, mi convince e mi dà speranza il rapporto ideale con la
conoscenza che ho descritto poco fa. Preciso per altro che sono
assolutamente d’accordo con te sul fatto che questo debba sfociare nel
pieno riconoscimento del lavoro prestato, strumento fondamentale per
l’incremento della conoscenza di tutt* e di ciascun*. Non vogliamo
riders dell’istruzione e nemmeno possiamo contare sul volontariato.
Alle tue osservazioni critiche, io aggiungerei anche che nel mondo
dell’opensource ci si imbatte ancora troppo spesso in una fastidiosa
tendenza elitaria, quella di chi pensa che in fondo la vera capacità
d’uso passa per l’interfaccia a comandi, l’unica a permettere e
dimostrare la piena comprensione del funzionamento del dispositivo.
Oppure di coloro che invitano sdegnosamente a consultare help e manuale
di istruzioni anziché fornire la risposta a qualche domanda di
chiarimento. Non per caso, del resto, scrissi anni fa un articoletto
intitolato “Codice aperto. Mentalità chiusa?”, purtroppo ora non più
reperibile, in cui in sostanza affermavo la necessità di uscire da un
approccio che allora mi appariva troppo auto-selettivo e che oggi mi
sembra più che mai ingiustificatamente individualistico.
Credo però che proprio l’emergenza sanitaria e formativa possa
permetterci non solo di criticare posizioni di questo tipo, ma di
provare a farle evolvere nel loro opposto, assumendo e proponendo in
ogni sede di discussione in modo intenzionale – sono affezionatissimo a
questa parola – una prospettiva sociale.
Cerco di spiegarmi meglio.
Detto in un altro modo, voglio valorizzare l’approccio etico-politico
e non economicista, in particolare l’idea che ciascun singolo e
soprattutto ogni comunità hanno diritto al controllo di ciò che
utilizzano e dei propri dati.
In riferimento alla costruzione di un dispositivo digitale
alternativo a quello del capitalismo di piattaforma, “apertura” e
“libertà” mi sembrano insomma significare soprattutto trasparenza e
consapevolezza da parte di tutti coloro che sono coinvolti.
Bene, questo approccio e le sue implicazioni devono assumere
esplicita valenza collettiva. Smettere di essere patrimonio più o meno
esibito di alcun* o accesso iniziatico a gruppi particolari, per
dispiegare invece tutta la propria potenza politica nella sfera
pubblica, intesa come dibattito, sintesi, scelta, ma anche come
dimensione operativa su mandato collettivo, appunto consapevole e
aperto.
La prospettiva open/free, insomma, se intesa come sto cercando di
ri/definirla, può costituire la base su cui costruire un uso sociale e
autenticamente democratico delle tecnologie digitali con lo scopo di
accrescere conoscenza e benessere in modo equo.
Prendiamo ad esempio il caso del tracciamento a scopo di prevenzione e
intervento sanitario, testimoniato dalle discussioni sull’installazione
di “Immuni”:
è una buona idea, ma – oltre a garantire a ciascun* la riservatezza dei
propri dati sensibili – l’impiego dell’intelligenza artificiale deve
essere il frutto di un mandato consapevolmente finalizzato all’utilità
pubblica e indirizzato con procedure che garantiscano chiarezza e
trasparenza sulla raccolta e sull’uso dei dati, secondo criteri
bio-medici e statistici, ma anche civici, etici, ecologici, economici e
sociali, espliciti e condivisi, non sulla base dell’affidamento a un
golem postumano.
Certo, la realizzazione concreta e tutti gli aspetti operativi
connessi sono compito di coloro che possiedono le capacità tecniche, ma
va denunciata e scardinata l’impostazione tecnocratica – ahimè! in
vigore – che si arroga non solo il diritto di individuare i problemi su
cui investire risorse, ma anche la potestà esclusiva di articolarne gli
aspetti, di definire parametri e criteri di soluzione, di valutare
l’efficacia dei meccanismi prodotti.
Nella condizione tecnocratica attuale, alla cittadinanza
digitalizzata – a volte addirittura a sua insaputa – spesso non è
richiesto nemmeno il consenso informato, quanto piuttosto un adeguamento
fiduciario, firmato in bianco.
Questo rovesciamento dell’impostazione – che per brevità possiamo
chiamare algoretica – può essere estesa a tutti i campi d’esercizio
della potenza di calcolo e interpretativa dell’IA.
Certo, sarebbero necessarie modalità di istruzione molto diversa da
quella attuale (prerequisito una visione emancipata e non adattiva del
pensiero computazionale), investimenti in infrastrutture pubbliche,
sinergie aperte tra diversi saperi specialistici – dalla medicina alla
filosofia, dal diritto alla statistica e così via –, volontà di
confronto.
Non ci possiamo nascondere, inoltre, che un’impostazione che vuole
restituire agli esseri umani la capacità decisionale collettiva deve
fare i conti con l’algocrazia attualmente dispiegata dal capitalismo di
sorveglianza, sulle cui procedure operative vige il segreto industriale,
ormai molto vicino a quello militare, dal momento che con ogni evidenza
è alla base dell’esercizio di un potere condizionante la quotidianità
della vita umana. L’iniziativa culturale e politica dovrebbe mandare in
corto circuito l’acquiescenza acritica, ormai così diffusa da aver di
fatto accettato che alla sovranità fondata su territori, popoli e
istituzioni si aggiunga – e spesso si sovrapponga – quella
dell’intermediazione messa in atto da data server digitali con consumi
di energia non per caso paragonabili a quelli di Stati, come tu stesso
sottolinei.
Affermare e praticare la necessità che le scelte nel campo dell’ICT
applicata alla vita umana debbano essere aperte, cioè trasparenti e
collettive, costruendo le sinergie necessarie, è, insomma, a mio
giudizio il solo modo per recuperare un senso di auto-efficacia sociale
capace di invogliare alla partecipazione attiva e alla fatica
intellettuale che un’autentica cittadinanza critica richiede.
Ora facciamo però un salto in un futuro forse utopico. Gli assi
portanti dell’intervento pubblico in materia di istruzione digitalizzata
sono l’approccio etico e il riconoscimento della conoscenza e del
lavoro come risorse sociali di emancipazione individuale e collettiva e
viviamo un quadro politico-istituzionale davvero costituzionale, privo
di “secondi fini”, trasparente e libero da operazioni di tracciamento a
fini di profitto. Come potremmo valorizzare le caratteristiche dei
dispositivi digitali nella direzione di un autentico e pieno diritto all’apprendimento individuale e collettivo?
StefanoP
Mi piace la tua domanda, formulata in questo modo. Per me la risposta, o una delle risposte, è: per aiutare gli apprendenti a costruire delle teorie, cioè delle rappresentazioni complesse e dinamiche del mondo. Perché questa operazione (costruire un modello sperimentale del mondo, una simulazione dinamica di un processo), malgrado quello che ci ostiniamo a pensare, non si riesce a fare del tutto con la parola, con il disegno, con i libri, con le lavagne: tutti questi sono strumenti di rappresentazione statici, in cui statico non è opposto a multimediale o animato, ma a dinamico. Con i computer si possono rappresentare simboli e definire delle regole con le quali questi simboli si combinano_ nel tempo_ e creano nuove strutture.
Un esempio di questa operazione: scrivere un testo. Qualcuno potrebbe dire: ma perché, non si poteva fare con la penna e il foglio di carta?
MarcoG
Io no. Anche perché sono notoriamente un amanuense disgrafico con centinaia di pubblicazioni.
StefanoP
È vero. Comunque: sì, si poteva usare la carta se l’obiettivo fosse stato quello di produrre un testo, come in ufficio, come a casa. Invece a scuola – voglio dire in un contesto educativo – l’obiettivo finale non è produrre, e nemmeno imparare a produrre, ma capire. In un ambiente digitale educativo si impara a scrivere un testo, ma soprattutto si capisce cos’è un testo, di quali parti è composto, come nasce, come evolve quel testo nelle mani dell’autore o di altri autori successivi o contemporanei. Un ambiente digitale educativo permette di capire che un testo non è solo una sequenza di righe scritte su un foglio di carta, perché permette di astrarlo dal supporto, duplicarlo, distribuirlo indipendentemente da quello. Un testo è, in ogni momento, una fotografia di un universo (ad esempio, narrativo), una rappresentazione che utilizza diversi livelli (lessico, grammatica, sintassi, stilistica, retorica).
Naturale. Anche se non so quanti la vedano in questo modo. Ma dov’è che interviene il digitale educativo?
StefanoP
Ci arrivo. Intanto devo dirti che trovo strano che normalmente non si distingua tra due usi dell’informatica, o meglio due livelli: l’elaborazione dei dati e quella dei simboli. Mi pare una distinzione fondamentale, e quindi provo a farla io, perché ci serve per capire cosa dovrebbe fare un ambiente digitale educativo.
L’informatica è nata per accelerare e automatizzare le trasformazioni dei numeri, cioè i calcoli. Quali calcoli? Quelli che servivano alla balistica per calcolare la traiettoria di un missile (l’ENIAC, nato per questo scopo nel 1946 ma usato poi per la meteorologia); o quelli che servivano alla statistica per il censimento della popolazione (i primi UNIVAC in uso al Census Bureau USA nel 1951). Questo scopo è ben presente anche oggi: le centraline delle automobili, ad esempio, sono piccoli computer che prendono i dati dai sensori del motore (fase, pressione, temperatura), li elaborano e restituiscono dei valori che sono usati per regolare la miscela aria-benzina, l’accensione delle candele, insomma il funzionamento ottimale del motore. L’IoT, l’internet delle cose, è un modo di dire che la distanza fisica tra i sensori e gli elaboratori dei dati non è rilevante, e che monitorare un processo critico – raccogliere dati continuamente – può servire a evitare danni peggiori. I computer possono continuamente fare calcoli fino a mostrare cosa succederebbe se…, in modo da consentirci di prendere decisioni più in fretta senza aspettare di vedere effetti macroscopici.
In tutti questi casi, i dati che vengono trattati sono numeri che rappresentano grandezze fisiche, in ogni caso aspetti primari della realtà. Vale naturalmente anche per i suoni e i colori.
Ma i numeri si possono usare anche per rappresentare simboli, che sono già a loro volta rappresentazioni della realtà. Per esempio, le lettere dell’alfabeto di una lingua naturale sono simboli che si possono rappresentare con numeri secondo una tabella standard (ASCII, 1968). Quindi con i computer si possono raccogliere e contare lettere, parole e frasi. Non è che sia una scoperta recente: uno dei primissimi computer, il Colossus, serviva a decifrare i messaggi tedeschi, giapponesi e italiani per conto della Royal Navy, quindi lavorava proprio su serie di lettere. Ma da qui nasce anche l’informatica umanistica negli anni ‘50, quando padre Roberto Busa SJ si mette in testa di costruire un lessico completo dell’opera di Tommaso d’Aquino usando un calcolatore a schede perforate che gli presta l’IBM. Oltre a contare, però, i simboli si possono anche trasformare e si possono produrre nuove raccolte di simboli, cioè dei testi. Come in un word processor o un editor HTML.
Questo dell’elaborazione simbolica è un livello diverso, anche se dal punto di vista dei computer non è che cambi poi tanto. Dal nostro punto di vista, invece, lo è davvero, perché noi siamo abituati da qualche centinaio di migliaia di anni a presupporre di essere l’unico agente in grado di trattare simboli, e quindi siamo piuttosto ingenui quando si tratta di valutare le produzioni simboliche di altri agenti. Di qui l’Intelligenza Artificiale, i virus, i BOT dei social network, i software che producono plot narrativi.
Da qui deriva anche le possibilità di applicazione del digitale nell’educazione, perché nell’educazione si lavora con le parole, con i concetti, con le relazioni tra concetti, e si impara come costruirne di nuove. E quindi un software che sia capace di trattare questo tipo di oggetti e di fornire un piano dove collocarli, spostarli, cancellarli e richiamarli diventa fondamentale.
Allora: un ambiente educativo per la scrittura digitale permette di lavorare a tutti questi livelli (fonetico, lessicale, sintattico, stilistico) in maniera indipendente, perché questi livelli sono stati codificati come simboli, e con i simboli i computer si rapportano piuttosto bene, come abbiamo visto. Insomma, ci sono tonnellate di articoli e libri che raccontano come si possa capire cosa significa “testo” usando un software senza che io ti tedi oltre.
MarcoG
Infatti. Si può usare anche Word… pardon, Libre Office Writer…
StefanoP
Qui dobbiamo stare attenti: più lo strumento è standard, da adulti, mirato al risultato, più occorre che il docente faccia un lavoro di adattamento alla situazione, di completamento, di astrazione dalle modalità standard. Ma è possibile, nella misura in cui lo strumento può essere modificato per adattarlo al contesto dell’apprendente.
La scrittura è un esempio forse un po’ tirato per i capelli (ma l’ho fatto perché so che te ne sei occupato a lungo), ma ce ne sono tanti altri più diretti: ad esempio, una mappa concettuale per rappresentare un contesto storico/geografico in cui si possano filtrare i link o espandere i nodi per una navigazione differenziata in base alla domanda di fondo. Oppure, per spostarci in ambito scientifico “duro”, una simulazione del comportamento di un ambiente basata sull’equazione di una legge fisica in cui si possano variare i valori dei parametri. Una simulazione interattiva in cui si possa accelerare la rivoluzione terrestre o il ciclo della pioggia per vedere cosa succede dopo dieci, mille, un milione di ripetizioni.
Per costruire da zero questo tipo di modello dinamico (non solo usarlo) non si possono usare i simboli del linguaggio naturale, ma ci vogliono quelli di un linguaggio artificiale, di un linguaggio di programmazione; e qui passiamo al coding, o almeno ad una forma possibile di coding. Anzi, potremmo immaginare un ventaglio continuo di possibili ambienti educativi che va da quelli fortemente strutturati (in cui non si può fare altro che reagire a stimoli e rispondere a quiz), e poi passando per vari gradi di apertura (i software didattici da esplorare liberamente) arriva fino all’estremo del coding, in cui la struttura va creata da zero prima di poterla esplorare.
In tutti questi casi, infatti, quello che conta è che l’ambiente digitale sia pensato come educativo. Il che non significa che deve essere “pieno di contenuti semplificati”, ma che deve essere progettato appositamente per permettere all’apprendente di prendere confidenza man mano che lo utilizza, modificandone l’interfaccia e la logica, adattandolo al suo personale e attuale livello di competenza.
Questa plasticità dell’ambiente digitale (che è possibile appunto perché è digitale, e non lo sarebbe se fosse un ambiente fisico rigido) deve essere accompagnata da una forma di consapevolezza di quello che accade al suo interno. Niente intelligenza artificiale, solo monitoraggio delle operazioni; una raccolta continua di dati che non serve a profilare l’apprendente per vendergli qualcosa, ma a valutare l’apprendimento per personalizzare l’ambiente stesso in maniera più pronta e utile a chi apprende al suo interno. Un monitoraggio esplicito, i cui dati siano disponibili per l’apprendente e per il docente, o per il gruppo formato da apprendenti e docenti.
Tra parentesi: questa è la giustificazione dei cosiddetti strumenti di Learning Analytics. I dati – quegli stessi dati che oggi fanno la fortuna di Google, di Amazon e di tutti gli altri grandi – possono e devono essere di proprietà di chi li ha prodotti, ed essere resi pubblici in forma anonima, come open data. Qui bisogna essere ragionevoli e smettere di confondere strumento e utilizzo. Come per gli “algoritmi cattivi” di cui hai già parlato tu: non si tratta di demonizzare i dati, ma di ripensarne il processo di produzione e distribuzione in un’ottica di sviluppo delle persone. I nostri dati ci appartengono, ma dobbiamo essere messi in condizione di usarli.
Tu ti occupi di formazione degli insegnanti, di queste cose ha scritto tanto. Mi dai un po’ di link?
MarcoG
Certo. Per primi, cito gli ausili
in campo sensoriale e motorio, che sono numerosissimi e vengono via via
perfezionati, con lo scopo di facilitare – e in alcuni casi di
permettere – l’accesso e la pratica di percorsi di istruzione e di
contesti operativi da parte di tutt* con il massimo di autonomia e di
efficacia possibili, proprio sfruttando quella possibilità di elaborare
simboli in modo dinamico che hai appena descritto.
In questa medesima prospettiva si colloca la multimodalità, ovvero la
possibilità di realizzare facilmente contenuti fruibili in modi diversi
e il più possibile equivalenti sul piano espressivo e concettuale:
l’esempio tipico è il testo digitale, che – digitato una volta – può poi
essere letto a schermo e su carta, stampato in braille e ascoltato via
sintesi vocale.
Se ragioniamo sul testo,
dobbiamo riflettere sulla plasticità operativa e cognitiva che gli
conferiscono trasferimento o elaborazione diretta su “supporto
flessibile” (chi non ha apprezzato il taglia-e-incolla o la possibilità
di cancellare senza conservare residui?). Si configura uno spazio
propedeutico permanente, in cui la scrittura di testi articolati può
essere concepita anche operativamente come processo di apprendimento
mediante la pratica: si possono infatti perseguire e raggiungere
risultati accettabili mediante intenzionali perfezionamenti successivi,
messi in atto in un consapevole rapporto dialettico tra alliev* e
insegnanti. L’idea della “bozza progressiva e collaborativa” è per altro
estensibile a qualsiasi processo di elaborazione da parte degli allievi
di un prodotto culturale e intellettuale mediante dispositivi digitali,
sempre supervisionabile da parte degli insegnanti, non più costretti a
limitarsi a correzione e valutazione finali, ma in grado di attuare, se
necessario, interventi di mediazione e di supporto costanti, lungo tutta
la produzione. Questa prospettiva professionale può incrementare e
valorizzare lo spazio formativo e l’auto-efficacia della funzione
docente, in termini di capacità inclusiva e di individualizzazione
compensativa dei percorsi e delle attività didattiche.
Disporre di testo su supporto flessibile consente inoltre agli
insegnanti di mettere in atto in prima persona gli interventi di
adattamento previsti dai relativi protocolli per i libri di testo.
Voglio anzi sottolineare che la “semplificazione” non è banalizzazione,
dispensa, riduzione, ma la messa in atto di strategie – in questo caso
di tipo linguistico – per migliorare la comprensibilità dei quadri
concettuali e dei contenuti culturali proposti, eliminando le
complicazioni di cui si può fare a meno. Che spesso sono molte più di
quanto si possa immaginare, soprattutto quando si impara a non dare
nulla per scontato.
In questa stessa logica si colloca la presentazione di contenuti affiancando più canali, con una prospettiva non dispensativa (l’immagine al posto del testo), ma integrativa e compensativa (l’immagine oltre
al testo; lo schema come strumento di decostruzione e ricostruzione di
altri materiali di apprendimento). Questo significa anche rifiutare,
come accennavo prima, l’uso di filmati invece di libri, che si fonda
sull’illusione che sia possibile surrogare l’approccio alla conoscenza
permesso dalla più astratta e quindi più potente per estensione e
intensità delle tecnologie della comunicazione – la scrittura e la
lettura di testi complessi – con immagini in movimento, sia pure
corredate di contenuti sonori.
Fino a questo momento ti ho rapidamente declinato alcuni approcci che
vanno nella direzione soprattutto dell’estensione del campo di
efficacia dell’istruzione collettiva, della garanzia democratica in
ordine agli apprendimenti di base, volti a incrementare l’autonomia di
tutt* e di ciascun*, in un sistema di relazioni sociali positive, di
valorizzazione reciproca, in cui il dispositivo digitale è elemento di
coesione e di equità.
Sono però convinto, anche per averlo praticato, del fatto che i
dispositivi digitali abbiano rilevanti potenzialità di salvaguardia e di
cura democratica anche per quanto riguarda un approccio emancipante
alla complessità dei saperi, sempre in virtù della elaborazione dinamica
di linguaggi simbolici.
Innanzitutto, la diffusione di infrastrutture di rete pubbliche e
aperte, con funzionalità negoziate, flessibili e adattabili (anziché
preimpostate e modificate in modo centralizzato e autocratico) può
estendere gli spazi per la condivisione critica e la classificazione
professionale di materiali, attività, proposte, in una logica di
autentica cooperazione, aliena da pratiche competitive e gerarchizzanti.
Le varie rappresentazioni grafiche–
ai cui differenti modelli logico-visivi sono per altro ispirati in modo
rigoroso parecchi software free – possono supportare, esemplificare e
rendere visivi stili di ragionamento anche molto diversi tra di loro,
con diverse modalità cognitive e diverse finalità e implicazioni
formative, ampliando lo spettro e l’estensione del patrimonio di
riflessione e di schematizzazione a disposizione di tutt*, a cominciare
dagli insegnanti.
Il ricorso intenzionale a una consapevole tessitura ipertestuale è
una pratica concettuale con grande potenza sintattica e semantica, di
cui ogni cittadin* deve impadronirsi sul piano cognitivo e culturale:
può costruire percorsi all’interno della rete nel suo insieme, può
chiarire, esemplificare, contrapporre, definire, integrare e così via. A
questo va aggiunta la potenzialità dei QRCode. Facilissimi da generare,
essi consentono di puntare ad un indirizzo web – per limitarci a ciò
che consentono le applicazioni gratuite – anche a partire da oggetti
materiali. Non solo: per attivare il collegamento è necessario
inquadrare il codice attraverso il proprio smartphone e poi confermare
l’operazione. In questo modo, si utilizzano, due diversi supporti, on
funzioni diverse: l’oggetto di partenza e – appunto – lo smartphone,
marcabdo una netta distinzione tra flusso culturale principale e
informazioni aggiuntive. Sul versante cognitivo, questa pratica può
facilitare la strutturazione di interconnesioni logiche congruenti alla
situazione formativa. In modo analogo funzionano i TAG Near Field
Communication (NFC), a loro volta ponte tra atomi e bit.
StefanoP
L’idea di ponte tra mondo fisico e mondo digitale – veicolata da un puntatore univoco e pubblico – è interessante. A differenza dei vari visori di realtà aumentata questo collegamento è pubblico e può essere controllato prima di essere seguito: alla fine si tratta semplicemente di una URL. Può essere un modo facile di aggiungere media diversi: la URL potrebbe essere quella di un audio, di un video…
MarcoG
Infatti. Alla fine del discorso – per ora – c’è proprio la dimensione
multimediale. Come ho già detto forse fin troppo, ne va immediatamente
abbandonata ogni visione sostitutiva e per ciò stesso dispensativa (il
filmato anziché il testo; il film anziché il capitolo di storia o la
lezione di scienze) e va invece praticata l’integrazione tra media
diversi. In particolare, oltre alla possibilità di tessitura ipermediale
a partire da uno o più testi guida, sottolineiamo quella – fornita da
un numero crescente di ambienti – di costruire manufatti multimediali
imperniati su integrazioni, commenti, ampliamenti e così via di uno o più filmati disponibili in rete.
Sono fortemente convinto, anzi, che la possibilità di interrogarsi a
proposito di come esplicitare e rappresentare in più modi e
dinamicamente il verso, il senso e il significato delle relazioni tra
gli elementi di uno o più aggregati informativi e comunicativi
costituiti da elementi di matrice mediale diversa sia la più potente
risorsa formativa della dimensione digitale della cultura, la più vicina
alla natura reticolare, aperta e libera della cognizione umana.
Per ora, mi fermerei qui. Cosa ne dici?
StefanoP
Che abbiamo detto tanto, ma non tutto. Quindi questa conversazione per ora la chiudiamo qui, ma solo per condividerla e renderla pubblica, ovviamente in forma il più possibile libera e aperta. Sperando che qualcun altro voglia iniziare a discuterne con noi…
Anzi no, prima di chiudere raccogliamo qualche indicazione di lettura per approfondire le questioni che abbiamo toccato. Comincio io con le cose che sono andato scrivendo sul mio blog a proposito di algoritmi, coding, monopolio e opensource:
Va bene. Io cito il mio blog preferito, “Concetti contrastivi”,
che si propone niente meno che di “Descrivere le tecnologie digitali
come prodotto sociale e svelarne le ambiguità in modo emancipato e con
scopo emancipante” e un mio recente intervento in un convegno, sull’impossibile neutralità delle e verso le piattaforme.
ANSAS-INDIRE: La Biblioteca di Documentazione
Pedagogica, ente di importanza nazionale istituito nel 1974, ha assunto a
partire dal 1995 anche la funzione di supportare le scuole nell’uso di
Internet. Nel 2001 è diventata Istituto Nazionale di Documentazione per
l’Innovazione e la Ricerca Educativa, nome modificato nel 2006 in
Agenzia Nazionale per lo Sviluppo dell’Autonomia Scolastica (ANSAS) e
poi ripreso nel 2012. Come sintetizzato nella pagina di autoricostruzione storica:
“Nel periodo 2001-2011, l’Istituto è impegnato in grandi iniziative
online per la formazione degli insegnanti italiani e nella promozione
dell’innovazione tecnologica e didattica nelle scuole”.
ITD: L’Istituto Tecnologie Didattiche è frutto dell’unione nel 2002 di due centri precedentemente realizzati dal Consiglio Nazionale delle Ricerche:
l’Istituto Tecnologie Didattiche di Genova (1970) e l’Istituto
Tecnologie Didattiche e Formative di Palermo (1993). Come ricordato
nella pagina iniziale del sito,
che permette anche l’accesso immediato ai progetti più recenti, “è il
solo istituto scientifico italiano interamente dedicato alla ricerca
sull’innovazione educativa veicolata dall’integrazione di strumenti e
metodi basati sull’uso delle tecnologie dell’informazione e della
comunicazione”. Segnaliamo in particolare il servizio Essediquadro, l’attenzione alla didattica inclusiva e – più di recente – le riflessioni sulla didattica di emergenza.
IRRSAE-IRRE: gli Istituti di ricerca regionali, di
sperimentazione e aggiornamento educativi sono stati istituiti nel 1974
in tutte le regioni italiane, impiegando personale “comandato”, ovvero
distaccato dalle funzioni direttive, docenti e tecnico-amministrative
ordinarie sulla base di procedure concorsuali, per svolgere attività di
supporto alla ricerca educativa, alla sperimentazione didattica e
all’aggiornamento metodologico. Nel 1999 gli IRRSAE hanno assunto il
nome di IRRE – Istituti regionali di Ricerca educativa, enti strumentali
del Ministero dell’istruzione -, per essere infine assorbiti nell’ANSAS
(2007).
OTE: L’Osservatorio Tecnologico per la scuola è
stato un servizio nazionale di consulenza e informazione erogato in rete
tra il 2000 e il 2009 a proposito delle tecnologie dell’informazione e
della comunicazione, particolarmente attento alla accessibilità dei
siti, alla navigazione sicura, al software open source e ai contenuti
aperti. Il sito è tuttora raggiungibile, anche se non è più aggiornato.
MAPPE CONCETTUALI Sintesi del contenuto del testo
CREDITI
Per l’immagine di copertina (a sx Marco e a dx Stefano, entrambi fans di Don Chisciotte): elaborazione di foto di André SAAD da Pixabay
Ieri ultima lezione prima delle presentazioni dei “project work” degli studenti (ovvero dei lavori di gruppo come preesoneri dell’esame). Avevo scelto un tema che in realtà mi inquietava: elaborazione di testi e fogli di calcolo. Tradotto: Word e Excel. Il resto del corso è stato sulle reti, i diritti dei cittadini, la privacy, l’accessibilità, e poi avrebbe dovuto toccare mappe, strumenti di collaborazione online, software didattico. Ma mi sentivo in dovere di parlare anche di strumenti che gli studenti di un’Università si suppone che sappiano usare, anche se nessuno gliel’ha insegnato.
Siccome non sono un guru di Word, non conosco a memoria tutte le funzioni di Excel, anzi per la verità non uso nessuno dei dueda quindici anni, mi sono domandato come faccio spesso: qual è la specificità di questa situazione? cosa posso proporre io a questi studenti di terzo anno, in procinto di laurearsi, che non possano trovare su Youtube o in un libro “Word for Dummies”? Come può aiutarli il fatto che trent’anni fa ho scritto il codice sorgente di un word processor, in Pascal? Qual è il mio valore aggiunto?
Le risposte che mi sono date le elenco qui, magari sono utili a qualcun altro.
1. La storia delle tecnologie della scrittura e del calcolo (supporti, strumenti, conservazione) serve a capire che ci sono modelli d’uso che non si capiscono se non riportandoli alle tecnologie precedenti. Il Caps Lock sulle tastiere dei computer…
2. La storia serve a distinguere gli aspetti davvero nuovi da quelli di re-mediation. Invenzioni, passione. Cosa ha provato il tizio che ha inventato Visicalc, quando non esisteva niente di simile nel mondo? Perché la gente scrive programmi, inventando modi che non esistono di trattare le rappresentazioni del mondo?
3. La storia serve pure a relativizzare la maniera di fare le cose che pensiamo sia unica. La pietra è stata superata dal papiro, dalla pergamena, dalla carta, dal CDROM e dal disco a stato solido. Quando vogliamo lasciare una traccia per gli alieni sulla luna, quale supporto scegliamo? e quale formato?
4. Distinguere alcuni concetti base può essere util a cavarsela quando le cose non vanno come pensiamo. Usiamo file di cui non sappiamo quasi nulla (chi ha mai aperto un file ODT o DOCX per vedere cosa c’è dentro?) e confondiamo formati, oggetti e supporti. Così a volte siamo bloccati.
5. Word ed Excel non sono solo programmi che fanno cose, sono ambienti dentro cui io posso fare cose. Ambienti che posso usare per scopi diversi. Li posso estendere, adattare, ridurre. Li posso collegare ad altri software. Li posso usare da solo o con altri.
6. Non c’è solo scrivere o mettere numeri, c’è anche – eventualmente, non necessariamente ! – progettare e costruire un testo o gruppo di testi, una matrice o una serie di matrici collegate. Gli artefatti digitali sono flessibili “per loro natura”: si può partire dalla fine e tornare indietro.
7. Ci sono modelli d’uso diversi e obiettivi diversi: risparmiare tempo automatizzando compiti, assicurarsi della validità dei dati, scoprire cose nuove (con le statistiche o con la risoluzione delle equazioni lineari).
8. Prima dei menù ci sono gli obiettivi. Voglio fare questa cosa: ci saranno una o più strade per farla, me le vado a cercare. Sono ambienti da scoprire un po’ alla volta. Non serve studiare tutto il manuale prima di lanciare Excel.
9. Distinguere i dati dalla struttura di quei dati e dall’interfaccia verso quella struttura è utile, perché permette di fare più cose: strutturare diversamente i dati, applicare interfacce diverse.
10. Non conosco MS Excel 🙁 , ma conosco Libre Office Calc. Ho verificato che in generale gli studenti non sanno nemmeno che esistono alternative.E così non possono scegliere.
Alla fine è questo che ho fatto: ho provato a suggerire visioni allargate, a condividere la mia passione e creare un po’ più di consapevolezza. Tanto peggio per le tabelle pivot e i documenti master, li studieranno un’altra volta.
Segnalo due ebook preziosi per spiegare Internet e il digitale in un linguaggio accessibile a tutti, ma in particolare dedicato ai ragazzi. Con l’obiettivo di fornire strumenti per un critica digitale, che non significa abbandono né rifiuto. Due testi che nascono digitali (Epub) ma che si nutrono di incontri fisici con gli studenti; che parlano di diritti di cittadinanza digitale ma tradotti in pratica.
Non sarebbe male se li leggessero anche i docenti e i genitori. La prossima edizione magari si potrebbe chiamere “il mondo della rete spiegato (d)ai ragazzi”
Attraverso l’esplorazione dei molti temi che il mondo della rete propone si vogliono però dimostrare alcune tesi ben chiare:
1. Le competenze digitali sono oggi fondamentali competenze di cittadinanza e quindi competenze chiave. Sulla conoscenza del mondo digitale si gioca molta parte dei nostri diritti e delle nostre libertà.
2. Il problema centrale non è mai stato alfabetizzare, imparare a programmare o le competenze tecniche, ma la formazione di competenze digitali come cammino verso la cultura digitale, oggi indispensabile.
3. La cultura digitale deriva da competenze che si formano facendo esperienze significative insieme, tra ragazzi e con gli adulti. La consapevolezza non la si racconta. La si costruisce attraverso esperienze, errori, riflessioni.
4. La cultura digitale, come conoscenza e riflessione dei problemi del mondo della rete è quella che permette di essere consapevoli, di scegliere in modo critico, di dominare e non essere dominati.
5. Quello che sappiamo della rete e che della rete usiamo è molto meno di quello che la rete è come realtà, che spesso ci domina. Leggete per credere…
6. Il sistema economico che domina la rete (e quindi noi) è basato non sulla libera concorrenza e sull’economia di mercato, ma su monopoli, controllo del mercato e dei consumatori, sfruttamento del lavoro. Come all’epoca della rivoluzione industriale del 1700 e 1800.
7. Purtroppo il capitalismo non si rinnova, si ripete: dalla concorrenza e dallo sfruttamento del lavoro, al controllo del mercato e quindi allo sfruttamento anche degli utenti e dei consumatori. Sino alla colonizzazione degli utenti, in questo caso digitali. Storia vecchia.
8. Le possibili alternative sono, sul piano personale acquisire una cultura digitale critica, sul piano economico e sociale, cercare di fare scelte coerenti con altri modelli economici: un’altra economia e un’altra società. Che prenda anche esempio dalla rete.
9. Le etichette che si usano troppo spesso (“nativi digitali”) e i giudizi affrettati non ci aiutano a capire. Semplificano cose complesse. Ci aiutano studi seri, riflessioni ed esperienze. Meno teoria, meno opinioni e più ricerca.
1. Digitale è una parola d’uso comune, di cui forse non comprendiamo completamente il senso. Lo usiamo come aggettivo e come sostantivo astratto, sappiamo in generale distinguere cosa è digitale e cosa non lo è, ma poco di più. Ci sfugge il fatto centrale che digitale è un termine inerentemente plurale: ogni oggetto digitale fa parte di un sistema, contiene delle parti di codice genetico identico a quello degli altri oggetti; li imita e ne è imitato, in un processo continuo che non sarebbe stato possibile con i media predigitali.
Quando Bolter e Grusin parlavano di “remediation” agli inizi di questo millennio, avevano in programma di spiegare il rapporto di tra media digitali e analogici continuando l’opera di McLuhan. I media digitali non sono alternative radicali, né derivano da quelli analogici, ma li riprendono al loro interno, li ri-mediano appunto, e così facendo conferiscono loro nuovo significato. Così, ad esempio, il podcast ri-media la radio. Una modalità di rapporto che si era già data nel rapporto tra pittura e fotografia, o tra l’incunabolo e il libro a stampa.
I media digitali fanno di più: essi sono uno parte dell’altro. Sicuramente dal punto di vista fisico: gli stessi chip permettono il funzionamento di un orologio, di un telefono, ma anche di una macchina fotografica e di una radio. Poi dal punto di vista dei linguaggi di programmazione, che sono gli strumenti che permettono allo stesso chip di comportarsi in maniera tanto diversa. Oggi penso sia il momento di interrogarsi anche su come le singole incarnazioni di ogni medium digitale si imitino e richiamino fra loro a livello di interfacce e funzionalità: dalla replicazione reciproca delle funzioni tra le piattaforme Social (Facebook / Google Plus / Twitter) ai browser che sempre più sono piattaforme generiche dentro cui innestare programmi diversi (Chrome, Firefox), dalle interfacce dei bancomat costruite per imitare i telefonini fino ai sistemi operativi indipendenti dai dispositivi (Windows 8, Android, Linux).
Così facendo, semplificano la transizione dall’ignoto al noto; poggiando su metafore e abitudini già inveterate, facilitano l’acquisizione di nuove funzionalità, ma si portano dietro anche qualche traccia del vecchio “modo d’uso” e, a volte, introducono nuove difficoltà.
La LIM non sfugge a questo destino, e forse la sua natura si capisce meglio in quest’ottica sistemica.
2. Ma cosa significa, in Italiano, “digitale”? Cosa ci passa per la mente quando diciamo che la LIM fa parte della famiglia delle tecnologie digitali? Come abbiamo cominciato ad usare questa parola?
Tutto comincia con gli orologi digitali. Se ne vede ancora qualcuno: sullo schermo pallido l’ora era espressa con cifre, anziché con le tradizionali lancette (anche se per brevi periodi sono apparsi curiosi orologi digitali con le lancette disegnate sullo schermo LCD). Cosa avevano di diverso dagli orologi tout court (che poi avremmo imparato a chiamare “analogici”)? Consumavano poco, si leggevano anche di notte, permettevano l’uso anche al bambino che ancora non avesse imparato a “leggere l’ora”.
Perché si chiamavano digitali? La parola “digitale” è un calco dall’Inglese americano, e viene dai laboratori Bell dove era stata inventata e usata a partire dagli anni ’40. Ma esisteva già in Italiano come sostantivo (la digitale è una pianta dai fiori simili a ditali), come aggettivo riferito alle impronte, come derivato (prestidigitazione) e persino come verbo (digitare, in musica sinonimo di diteggiare). Con l’arrivo dell’elettronica di consumo, “digitare” viene a significare “premere con le dita i tasti di un apparecchio elettronico”, incrociando il senso classico (relativo alle dita) con quello moderno (relativo ai computer). Dunque digitale è una macchina che si pilota con le dita?
Un’occhiata ad un dizionario ci porta invece in un’altra direzione. “Digitale” deriva da “digit”, in inglese “cifra”, precisamente di un sistema a base dieci, come le dita delle due mani. Infatti a sua volta “digit” deriverebbe da “digitus”, in latino per “dito”. Seconda ipotesi: un orologio digitale è un orologio con le cifre al posto delle lancette?
La parola inglese “digital” però non ha esattamente il senso che sarebbe ovvio (“un modo di rappresentare i numeri con cifre da 1 a 10”) ma significa numerabile, discreto, nel senso di non continuo (in Francese, numérique). Una grandezza per essere trattata dalle macchine deve essere prima campionata, cioè devono essere estratti alcuni valori rappresentativi, i quali siano numeri finiti. E mi perdoneranno le imprecisioni quanti si occupano professionalmente di questi temi.
Quindi un orologio digitale (a prescindere dalla questione della base di numerazione utilizzata, che nei computer è 2 invece di 10) è una macchina in cui il tempo non sia misurato e rappresentato tramite un sistema a variazione continua, come lo srotolarsi di una molla, ma da un sistema discreto, come un oscillatore al quarzo, che vibra ad una frequenza altissima. Il fatto che sullo schermo dell’orologio lo scorrere del tempo sia rappresentato da cifre (digit), anziché da lancette, è del tutto secondario, e infatti la stragrande maggioranza degli orologi digitali ha oggi un rassicurante look tradizionale. Ma il suo cuore è completamente diverso: è computer programmabile.
3. Un processo simile è quello che ha portato alla nascita degli smartphone a partire dai comuni telefoni. Come siamo passati dall’apparecchio in bachelite nera che troneggiava in salone o all’ingresso all’oggetto di design che viene regalato per la Prima Comunione? Quali sono i cambiamenti che ne hanno fatto una delle innovazioni – socialmente e generazionalmente trasversali – con il maggiore impatto degli ultimi vent’anni? Come è arrivato ad essere “il” dispositivo centrale del nostro ecosistema di comunicazione, con una diffusione che supera quella di qualsiasi altro?
La rivoluzione più evidente è quella che consente di tenere in mano il telefono: quasi contemporaneamente, tra gli anni 70 e 80, nascono i cordless casalinghi e i telefoni cellulari portatili, che non hanno bisogno di collegarsi una rete fissa, ma ne usano una radio, prima analogica e poi digitale (nel senso consueto: basata su pacchetti di bit). Il peso ridotto – insieme alla libertà dal filo – si porta dietro la possibilità di telefonare camminando, elimina di fatto dalle case un luogo (l’angolo del telefono), aprendo ad infiniti usi diversi e condannando ogni utente alla reperibilità costante. Da qui in poi il telefono è un oggetto personale, non familiare o d’ufficio, che catalizza affetti e passioni più che richieste di funzionalità.
Se guardiamo dentro un telefono attuale, capiamo che a pieno titolo fa parte delle famiglia dei dispositivi digitali. Dentro a un telefono digitale vengono utilizzati chip generici, programmati e riprogrammabili, che non sono diversi da quelli di un computer o di una reflex. Questo abbassa i costi di produzione e permette di utilizzare software comuni (Android). Anche se la durata della batteria e la qualità del suono è importante, l’accento si sposta sempre di più – come per ogni altro dispositivo elettronico – dall’hardware al software che lo pilota. Smartphone di discreto valore sono stati surclassati da altri quasi identici ma con un sistema operativo diverso, che dà accesso a migliaia di applicazioni gratuite e non. Dal fatto che per gestire le funzioni di chiamata si usino circuiti digitali, e non dispositivi elettromeccanici, discende la possibilità di aggiungere una memoria delle chiamate, una rubrica interna, e la possibilità per l’utente di configurare il comportamento del telefono (la suoneria, la connessione alle reti). Il mio telefono diventa presto diverso dal tuo.
Ma l’innovazione centrale è forse quella relativa all’interfaccia, prima logica e poi fisica. Oltre ai tasti numerici e ai tasti misteriosi che permettono funzioni specifiche per i centralini, compaiono i tasti di “navigazione”: due o quattro frecce per navigare in un menù, cioè scegliere una funzione non in base ad una predisposizione hardware (un tasto apposito), ma muovendo un cursore ideale in un grafo che l’utente deve immaginarsi, di cui vede un pezzetto per volta, spostandosi dal nodo genitore ai nodi figli, e da questi ai nodi fratelli.
Questa modalità di selezione della funzione tramite un menù ad albero nasce prima del suo corrispettivo supporto visivo, cioè ben prima dell’arrivo di uno schermo grafico, prima in bianco e nero e poi a colori, e delle icone. E’ una delle innovazioni più importanti e trasversali, che ha un enorme impatto sull’utente e ha contribuito tra l’altro a creare quel “digital divide” che mette in difficoltà un utente un po’ anziano di fronte ad un bancomat moderno o di fronte ad un risponditore automatico.
Con le icone sullo schermo LCD (mutuate dalle interfacce dei PC), si poteva navigare muovendo un puntatore tramite dei pulsanti, il che naturalmente era abbastanza lungo e controintuitivo: finalmente si arriva al touch screen, che permette la selezione diretta dell’icona con un dito o un pennino apposito.
E alla fine arrivano le “gestures”, la possibilità di sfruttare il trascinamento, di utilizzare due dita per dare comandi diversi (con tutta la terminologia al seguito: “pinch”, “swipe”, etc). Gli ultimi telefoni in circolazione – mentre scrivo queste righe – assomigliano a specchietti da borsetta: sono parallelepipedi di plastica con un lato occupato interamente da un grande display. Contemporaneamente, arriva al suo stadio finale la convergenza di computer portatili e telefoni in un oggetto nuovo: il tablet.
4. La diffusione della LIM nelle scuole Italiane, grazie ai Piani Nazionali e all’azione di ANSAS, ma anche alla disponibilità degli enti locali, è andata avanti a partire da quel lontano 2006 in cui è stata introdotta ufficialmente a livello nazionale, anche se ad un ritmo meno soddisfacente di quello che ci si sarebbe aspettato, e non senza detrattori.
Alcuni hanno sostenuto che non c’è nulla che si faccia con una LIM che non potrebbe essere fatto con un proiettore e uno schermo. Ma senza arrivare a tanto, cosa differenziava immediatamente la LIM da un grosso televisore LCD, dal costo molto inferiore? Il fatto che si potesse toccare con le dita. E questo non attraeva per niente il docente nel 2006.
D’altra parte la scuola è abituata a subire le innovazioni tecnologiche: che siano Piani Ministeriali o mode effimere pilotate dai produttori, difficilmente il bisogno di tecnologia è nato all’interno di essa, né si è precisato sulla base di un lavoro collettivo di insegnanti (e studenti…). Anzi: la risposta è arrivata prima ancora dell’espressione del bisogno, con i risultati che sono sotto gli occhi di tutti.
Fino a qualche tempo fa, la reazione degli insegnanti verso la LIM era piuttosto negativa: fastidio, imbarazzo, incomprensione. Se era chiaro che la LIM andava a sostituire la lavagna (quindi una parte dell’attrezzatura di classe di pertinenza del docente), non si capiva bene perché usarla, se non per catalizzare l’attenzione dei ragazzi sul contenuto della lezione anziché sul suo attore principale.
Oggi la disposizione d’animo verso la LIM è sensibilmente migliorata: anche l’insegnante meno integrato è interessato almeno a provare ad usarla. Ben vengano libri come quello che state leggendo, che aiutano a superare la fase in cui il nuovo viene usato allo stesso modo del vecchio, suggerendo modelli avanzati e raccontando esperienze positive.
Quello che è cambiato in questi pochissimi anni non è tanto la competenza tecnica del docente, ma proprio la sua apertura mentale. E non tanto nel senso che ha finalmente compreso le possibilità che un setting tecnologico più avanzato del trittico “cattedra-lavagna-cartageografica” può schiudere per la didattica, ma nel senso che finalmente di questo setting non ha più paura, lo comincia a sentire suo ed è disponibile a sperimentarlo.
Sospetto che la vera causa di questo mutamento di prospettiva non sia affatto la formazione tecnica (a cura di ANSAS, degli ex IRRE o dei distributori italiani delle LIM). Penso si possa riconoscere in questo cambiamento un effetto collaterale di un fenomeno apparentemente lontano: quello della diffusione anche tra gli adulti degli smartphone dotati di touchscreen.
Secondo un recente studio di Nielsen, il 97% degli Italiani ha un cellulare, il 62% ha uno smartphone; la maggioranza degli utenti si colloca nella fascia 35-64 anni. E’ sempre più facile vedere in luoghi pubblici una signora di un certa età che al richiamo di una suoneria improbabile cerca affannosamente nella sua borsetta ed estrae un telefono 13×7 su cui comincia a trascinare le dita, con una certa difficoltà per via delle unghie laccate. Non è imbarazzata, si muove con agilità tra i diversi gruppi di icone, passa da un’applicazione all’altra con una facilità impensabile fino a poco tempo prima. Questa stessa signora, una volta entrata in classe, non ha più difficoltà a muoversi tra i diversi menù della LIM, che in fondo è un telefonino un po’ più grande. Ha imparato le logiche d’uso di queste interfacce in un ambito personale ed è pronta a trasferirle in quello lavorativo.
Insomma non sono – per una volta – i nativi digitali a dettare l’agenda dell’introduzione delle tecnologie nella scuola, ma gli immigrati.
5. L’etimologia popolare a volte è potente e vince su quella dei grammatici. Digitale, alla fin fine, viene a significare proprio “che si usa con le dita”. E così la LIM, grazie al suo apparentamento con gli smartphone, i tablet e i lettori di ebook, sia in termini di costituzione interna che di logica d’uso, diventa un dispositivo familiare anche per il docente.
Ripercorrere la storia di questo incrocio mi è sembrato utile per capire e per progettare degli usi “sostenibili” delle LIM – o, se è per questo, di ogni altro dispositivo digitale – anche all’interno della scuola. E’ una storia di falsi progressi, di errori, di innovazioni centrate non sull’utente ma sulla disponibilità di tecnologie da campi affini. Ci dovrebbe insegnare a gestire l’inserimento delle innovazioni in maniera più cauta, tenendo conto di ciò che accade in campi limitrofi, facendo attenzione alla reazione emotiva, oltre che a quella cognitiva, di chi dovrà usarli. E ci dovrebbe stimolare a pensare sempre ai media come un sistema, in cui nessuna parte può essere pensata escludendo le altre.
Qui trovate raccolti alcuni miei documenti e programmi, a volte già pubblicati su carta o in rete, in ordine alfabetico.
I documenti sono i formato DOC o RTF, i programmi sono in generale realizzati con qualche versione di ToolBook (dalla 4 alla 7), per
cui necessitano del Runtime relativo. Se non lo avete già, scaricatelo da qui.
L’elenco viene aggiornato periodicamente.
Questa pagina è stata rivista il 7/11/05
Fare e capire il digitale, i primi capitoli di un libro sul tema della comprensione delle tecnologie e sul loro
uso concreto (che ora è diventato un libro digitale su Lulu.com ).
In versione DOC Fare e capire il digitale .
ARTU Analysys, Retelling and Text Understanding (4/98)
Alcuni dei testi più vecchi pubblicati su OnLynx sono scaricabili da qui.
Invece su Altrascuola potete trovare testi più recenti, in particolare sul tema della scrittura creativa
mediata dal computer. L’indice completo può essere consultato a questo indirizzo.
Software e prototipi
ADA Lesson Generator Modulo autore per la creazione di corsi online (bisogna registrarsi sul Lynxlab) (TB Runtime ver. 7.1 – 2002)
Textis Plus Telaio per la tessitura di testi, Versione beta (TB Runtime ver. 6.5 – 2002)
Dopo anni di permanenza nel cassetto (anzi: dopo anni di trasferimenti e copie da un disco all’altro) mi sono deciso a pubblicare con Lulu.com “Il Maestro digitale”.
Scritto un po’ sull’onda del vecchio “Storia di un ipertesto”, prendeva spunto dalla progettazione e realizzazione di un software didattico vero, MioMondo), naturalmente mooolto, mooolto romanzata.
Accanto a quella, in contrappunto, una serie di riflessioni su ipertesti, multimedia, authoring e didattica.
Sicuramente i riferimenti alle tecnologie disponibili, la sitografia e la bibliografia sarebbero da modificare; ma forse oggi non manterrei neppure tutte le idee che lì sono esposte, e in buona sostanza mi troverei a riscrivere tutto.
Allora ho pensato di pubblicarlo così com’era, senza aggiornamenti e correzioni, anche per consegnare un’immagine fedele dell’epoca, dei suoi orizzonti e dei suoi strumenti.
Se volete, potete scaricare gratis la versione PDF del libro da Lulu.com:
In questo caso vi corre l’obbligo di farmi sapere cosa ne pensate…