Digi Tales

Strumenti digitali usati analogicamente

Set
05

Mi sono reso conto improvvisamente (eh sì) che la mia maniera di pensare la “didattica digitale” è spesso lontana da quella di molti che in teoria dovrebbero essere dalla mia stessa parte, la parte di quelli che studiano, sperimentano e propongono agli altri attraverso corsi, libri, seminari e sogni vari. Ci troviamo vicini, ci salutiamo cortesemente, sembra che vogliamo camminare nella stessa direzione, poi improvvisamente c’è un’interruzione di questa comunità di intenti. Forse ho capito perché.

Gli strumenti digitali sono tanti, diversi, e si possono usare in tanti modi diversi. Già per questo parlare di “innovatività del digitale”, o di “didattica digitale” è un po’ generico e ingenuo. Certi strumenti digitali si possono usare per creare strutture nuove, o per replicare modelli esistenti. Si possono usare in maniera ingenua, come se fossero funzioni naturali, date ad Adamo una volta per tutte; oppure si possono esaminare, scegliere, usare magari lo stesso ma sapendo chi li ha costruite e perché.
Soprattutto, si possono usare strumenti digitali come se fossero analogici, all’interno di strutture di pensiero tradizionali; oppure capire come funzionano e sfruttarne le caratteristiche più proprie.
Detto in altro modo: ci sono tante dimensioni lungo le quali si può immaginare e valutare l’uso degli strumenti digitali:

  • consapevole/ingenuo
  • creativo/fedele al modello
  • individuale/collettivo
  • fruitivo/produttivo

    ma quella fondamentale per me resta:
  • digitale/analogico

Dimensione paradossale, in cui il termine che sembra lapalissiano (“uso digitale di uno strumento digitale”) è in realtà la descrizione di un uso del digitale consapevole delle differenze e delle opportunità che offre rispetto al corrispondente analogico; mentre il contrario, cioè “l’uso analogico del digitale” è la descrizione di un uso veloce, superficiale, attento agli obbiettivi immediati, quelli che si possono definire a priori, indipendentemente dalle tecnologie scelte e usate.

Anni fa avevo provato a descrivere alcune delle caratteristiche del digitale. Sbagliando, credevo di parlare del “digitale in sé”, mentre stavo parlando proprio di questa differenza.
Scrivevo che il digitale è inerentemente flessibile, plurale, virtuale, omogeneo. Ognuno di questi aggettivi era un modo di descrivere delle operazioni possibili sugli oggetti digitali e non sui corrispettivi analogici: modificare all’infinito, modificare a più mani, tradurre e reinterpretare da un campo mediale all’altro, eccetera. Queste possibilità derivavano sia dal fatto che alla base c’erano bit, cioè forma e non materia, sia dal fatto che i dispositivi digitali si possono programmare per fare cose non previste, non contenute nell’orizzonte presente.

(La parte seguente può essere saltata da chi si è già interessato alla storia dei media e ha già riflettuto recentemente su questi temi, cioè immagino tutti. In questo caso, può saltare direttamente a leggere la Conclusione ).


1. Gli strumenti digitali nascono per la quasi totalità come rimediazioni di quelli analogici, come scrivono Bolter e Grusin, in un processo che non è una sostituzione netta, e in cui non è subito ovvio se e quando il doppio digitale prenderà il posto di quello analogico.
La coppia pc-wordprocessor, ad esempio, è una versione digitale della macchina da scrivere. Serve a fare le stesse cose, ma inizialmente costa anche di più, è più difficile da usare, richiede un apprendimento specifico; però presenta dei vantaggi: carta infinita, cambio di font, dimensioni variabili eccetera eccetera. Talmente vantaggi che le macchine da scrivere oggi sono scomparse.

Gli orologi analogici invece no, almeno quelli di altissima gamma. Come le carrozze a cavalli sono quasi scomparse, tranne per i matrimoni e per fare il giro del Colosseo. La versione digitale costa poco ed è per tutti, quella analogica per pochi. Potrebbe essere il destino dell’educazione analoagica (umana o cartacea), quella di essere riservata ai ricchi; ma passiamo oltre.
A volte sono quasi indistinguibili, come nel caso delle macchine fotografiche reflex o delle videocamere. Una reflex digitale assomiglia fisicamente ad una analogica, anche se pesa un po’ meno, e fa esattamente la stessa cosa. Solo che non ha bisogno di pellicola, perché la luce viene tradotta in bit prima di essere registrata su una scheda a stato solido, ma questo è del tutto trasparente per l’utente, il quale francamente se ne infischia.
All’estremo opposto, alcuni strumenti digitali sono apparentemente molto diversi da quelli analogici che intendono sostituire; o meglio, fanno astrazione dalla materia e dal corpo (che poi è proprio quello che fa meglio il digitale: rende generico l’hardware). Hanno in comune con quelli analogici solo l’interfaccia, il modello d’uso e lo scopo: un software di editing video assomiglia ad una centralina video ma è un software che gira in un PC qualsiasi, non ha bisogno di un macchina specializzata, non occupa spazio e si può aggiornare facilmente. Costa quasi lo stesso, è vero, ma si può copiare o accontentarsi della versione “open”.

In tutti questi casi, chi ha utilizzato prima gli strumenti analogici e poi quelli digitali ha (o meglio potrebbe avere) la percezione delle differenze, dei minus (“Ah, la qualità degli amplificatori a valvole…”) e dei plus (“Uh che sbadato! Va beh, Ctrl-Z”) che derivano dal fatto che i dati vengono creati filtrando e numerizzando segnali, e che una volta costituiti in forma digitale possono essere trasformati, copiati, inviati all’infinito, senza nessuna perdita. I più anziani, fortunati, o ricchi, possono permettersi di scegliere tra la versione analogica e quella digitale. In ogni caso, per quel poco o tanto di tecnica che conoscono, sanno che dentro il corpo macchina ci sono cose molto diverse.

Chi ha usato solo gli strumenti digitali invece li considera semplicemente gli strumenti disponibili oggi per ottenere certi risultati. Non confronta con nulla, non conosce la storia, non riconosce nel nuovo il vecchio – non sa perché sulle tastiere dei PC esiste un tasto per bloccare il maiuscolo che però non funziona con i tasti che presentano numeri e simboli insieme. Niente di male, intendiamoci: non bisogna per forza aver scritto con una penna d’oca per apprezzare le qualità della Bic. Ma per loro la Bic è lo strumento della scrittura, e non ce ne sono né possono essere altri. Soprattutto, non fanno attenzione al processo sottostante, non sono interessati al funzionamento.

2. C’è una seconda classe di strumenti, che nascono come doppi digitali di uno strumento analogico ma poi si trasformano in altro. E’ il caso del telefono, per spiegare l’evoluzione del quale non c’è bisogno di tante parole. In questo caso, una volta raggiunto l’obiettivo di simulare il comportamento dello strumento target (il telefono analogico) ci si è trovati tra le mani un oggetto talmente potente da poter essere usato come di altre pratiche (fare fotografie, registrare audio) e come terminale di servizi internet (navigare nel web, comunicare). Questo doppio o triplo uso per un certo periodo lascia interdetti gli utenti più vecchi, che continuano a usare uno smartphone come un telefono, mentre è perfettamente compreso dai nuovi utenti, che a limite non lo usano mai per telefonare, ma che importa? Non è un caso: è che essendo l’hardware (e il sistema operativo) dei supporti generici, quello che ci si fa sopra è praticamente illimitato. Una volta fatto lo sforzo di convincere le persone ad avere tra le mani un coso digitale, il più e fatto e da lì si può far passare tutto.

3. Infine ci sono gli strumenti totalmente digitali, nati digitali, senza nessuna corrispondenza analogica. Sono rari perché per affermarsi devono poggiare su concetti completamente nuovi. Il foglio di calcolo è uno di questi: non assomiglia veramente a nulla, non potenzia un foglio di carta a quadretti ma fa cose diverse (sostituisce la mente nei calcoli, e lo fa continuamente). Questi strumenti si basano su una caratteristica unica che gli deriva dall’essere, tutti, al fondo, dei computer: la possibilità di essere programmati. Che non significa : programmati per fare una cosa. Gli strumenti analogici si possono configurare, se ne possono variare i parametri; ma non si possono programmare, nel senso di stabilire comportamenti diversi in base a situazioni differenti. Uno strumento digitale è capace di scegliere come comportarsi sulla base di uno schema di situazione che può essere molto complesso e che si chiama “programma”.


Conclusione

Arriviamo al punto: i doppi digitali si possono anche usare limitandosi alle funzioni che erano possibili coi i loro antesignani analogici. Ma i risultati più ricchi, soddisfacenti, soprattutto per quanto riguarda l’educazione, si hanno quando se ne sfruttano le caratteristiche intrinseche, quelle che poggiano sul loro trattare dati digitali (flessibili, molteplici, omogenei…) e di poter essere programmati. Quando oltre ad usarli in maniera critica, creativa, in gruppo, per produrre artefatti eccetera eccetera si sfrutta il fatto che in questo particolare universo le lettere si possono trasformare in suoni, e i numeri in disegni; che le storie si possono rendere vive e le mappe navigabili, allora li si usa in maniera davvero educativa.
Ecco perché usare strumenti (o servizi) digitali all’interno di un framework educativo analogico mi pare riduttivo.
Ed ecco quello che mi separa da tanti educatori digitali “innovativi”.

Tecnologie non d’importazione (con esercizio svolto)

Nov
25

Educazione e scuola 2.0 si poggiano su di un uso “forte” delle tecnologie digitali (e soprattutto della rete) per cambiare la didattica. Prima, naturalmente, le macchine: le LIM in ogni classe, ebook reader, registro digitale per tutti, tablet nelle classi. Poi il software per collaborare e comunicare, possibilmente “cloud” (qualsiasi cosa voglia dire).

Anche secondo Anthony Salcito (Vice President Education Area Microsoft), è dalla scuola che occorre iniziare. La proposta Microsoft è quella di Office 365 Education: un ambiente online basato su MS Office che consente di fare presentazioni, condividere, comunicare,  etc. Più o meno un’alternativa a Google Apps for Education, la versione delle applicazioni online di Google (Drive, Mail, Calendar, Hangouts, …) dedicata agli studenti e ai professori.

Lo studio IDC (commissionato da Microsoft Corporation) sulle skill più importanti per trovare lavoro è interessante in questo senso. Questo studio mostra come La conoscenza di MS Word è più importante del bilinguismo, quella di MS Powerpoint più della capacità di gestire progetti, e in generale quella sulla suite MS Office è seconda solo alla capacità comunicative orali e scritte.

Devo dire che mi piacerebbe ogni tanto trovare prospettive nuove, al di là dell’esportazione nel dominio educativo degli strumenti pensati per quello lavorativo. Ho l’impressione – ma spero di sbagliarmi – che il discorso sia più o meno questo: “Abbiamo qui in magazzino dei prodotti. Ci scriviamo accanto “education” e li vendiamo/regaliamo alla scuola. Che male facciamo? Anzi: noi gli diamo la canna da pesca, poi loro imparino a pescare “.

Il male è che questi strumenti – che sono nati per rispondere ad un bisogno in un contesto lavorativo/aziendale – nella scuola non rispondono a nessun bisogno.  Il male è che questi strumenti inducono un bisogno negli studenti che poi verrà colmato da qualcuno dopo la scuola. Il male è che l’introduzione di  questi strumenti costituisce l’ennesima giustificazione per non cambiare nulla.

Sarà senz’altro vero che la didattica attuale è vecchia in termini di concetti, linguaggi, obiettivi, metodi; ma non basta dotare le scuole di strumenti di produzione/comunicazione per aggiornarla. E’ un errore logico: una didattica nuova senza questi strumenti non si può fare; ma questo non implica che siano sufficienti gli strumenti per avere una didattica nuova.  Si fa  torto a chi ragionava già vent’anni fa di linguaggi multimediali quando si spaccia una tecnologia importata per un potente strumento di innovazione. Se vogliamo inserire gli strumenti di produzione multimediale nella scuola, dobbiamo anche capire perché usarli, chi li deve usare, quando, dove, come si valuta il processo e il risultato, con chi lo si condivide. E queste belle domande mettono in discussione la struttura della lezione, quella dell’aula, quella delle discipline, le divisioni tra scuola e casa, etc. E magari anche il concetto di apprendimento come assorbimento di informazioni.

Non è una questione di priorità (prima la formazione degli insegnanti, e poi wifi nelle scuole, o il contrario?) ma proprio di specificità. E’ chiaro che gli insegnanti oggi devono avere un’abilitazione al digitale come requisito minimo per capire gli studenti, o per collaborare tra loro, o per aggiornarsi; ma non può limitarsi a questo l’innovazione digitale.

E difatti ci sono delle eccezioni: ci sono software didattici (nati per lo scopo preciso di rendere possibile un processo di apprendimento migliore di quello analogico), ci sono progetti ancora più complessi come l’OLPC, che andavano dalla progettazione dell’hardware al sistema operativo, dal software fino alle modalità di connessione, tutto pensato in funzione del contesto (sbagliando poi magari continente, ma questo è un altro problema). Dovrebbero costituire la regola, e invece siamo ancora nella linea dei laboratori linguistici, delle lavagne luminose, dei PC, delle LIM, dei tablet: tecnologie d’importazione, che entrano nella scuola quando sono vecchie altrove. Si capisce pure che il “mercato” educativo non consenta gli stessi investimenti degli altri mercati; ma ci sono altri modelli di produzione che non sono necessariamente dipendenti dal mercato. Sarebbe bello vedere un progetto di sviluppo di software didattico che parte dai bisogni della scuola ed è supportato da chi investe, o dice di investire, in tecnologie educative.

 

Mi permetto di suggerire a tutti coloro che si occupano di questi temi – da Viale Trastevere a Redmond a Mountain View – il seguente esercizio:

pensate  ad un’applicazione originale in cui l’apporto del digitale sia davvero significativo
perché non si limita a duplicare in maniera più attraente  quello che si faceva benissimo anche prima,
ma rende possibile l’apprendimento di qualcosa che altrimenti rischia di sfuggire.

Questo è il mio svolgimento dell’esercizio suddetto. Riguarda un concetto banale e la sua rappresentazione:  il rapporto tra causa ed effetto.

___

1. Che nel mondo gli eventi non siano accoppiati casualmente, ma che alcuni siano spesso o sempre in relazione con altri, è cosa che impariamo presto. Un’altra cosa che diventa presto parte della nostra esperienza è che se l’intensità della causa aumenta, aumenta anche l’intesità dell’effetto. Nell’educazione scientifica  tradizionale si parte proprio da questo tipo di funzioni, adatta a misurare e prevedere relazioni causali lineari (funzioni monotòne):

y= kx

Il valore nel codominio cresce linearmente al crescere di quello nel dominio.

Funzioni di uso molto generale anche al di là dello stretto rapporto di causa fisica. Ad esempio, lo spazio percorso in un moto rettilineo uniforme è uguale alla velocità costante per il tempo trascorso:

s = vt

Questo è vero in generale per le rappresentazioni astratte del mondo (es. geometria, cinematica) e viene assunto come modello per ogni relazione di causa ed effettuo: quanto più la causa agisce, tanto più l’effetto è visibile.

A volte il rapporto non è lineare: per esempio, il variare dell’area di un quadrato al crescere del lato:

a=l2
Oppure in un moto uniformemente accelerato, come quella della caduta libera di un corpo:

s= ½ at2

Allora dalla retta si passa all’iperbole, che cresce più velocemente, ma sempre indefinitamente.

 

2. Si scopre però che quanto più  ci si avvicina alla realtà, tanto più questo rapporto positivo tra x e y è valido solo entro certi limiti, perché al di là di quelli il valore della y comincia ad avere un andamento inverso.

Ad esempio, siamo abituati a pensare i pannelli fotovoltaici come macchine semplici, lineari. Il sole è la causa, l’elettricità prodotta l’effetto. La cellula fotovoltaica ideale produce elettricità in funzione diretta dell’irraggiamento:

+ sole → + produzione elettricità

Ma l’aumento dell’irraggiamento comporta anche altri fenomeni collaterali, come l’aumento della temperatura del pannello, che ha una perdita di rendimento dello 0,45 % per ogni grado centigrado di aumento della temperatura. In pratica, oltre un certo limite:

+ sole → – produzione elettricità

Sono fenomeni che dovremmo conoscere bene perché sono del tutto naturali. Per esempio, se si lancia un sasso verso l’alto, dopo un po’ comincia a cadere verso terra, per effetto dell’attrito e della forza di gravità. E’ un fenomeno che conosciamo benissimo fin da bambini, e che ingenuamente tendiamo a spiegare semplicemente con l’esaurimento della spinta iniziale. Per essere spiegato in una teoria unica insieme ad altri fenomeni quotidiani (perché invece la luna gira perennemente intorno alla terra senza bisogno di nessuna spinta?) richiede un approfondimento.

La presenza di fattori causali che ostacolano l’azione principale pur non avendo momentaneamente effetti visibili è qualcosa che non ci torna.

Alcuni tipi di inversione sono più comprensibili e prevedibili, forse perché più semplici e legate ad antiche esperienze: l’esaurimento delle risorse naturali, o di quelle logiche (spazio, tempo) è qualcosa che la cultura contadina conosce da sempre (tanto da prevedere il riposo dei campi o la rotazione delle culture), anche se la cultura industriale sembra averlo dimenticato. Oppure quelle che si possono ricondurre a materia etica o religiosa, dove il superamento di certi limiti viene punito dall’alto (vedi la storia biblica della Torre di Babele o la concezione greca dell’hybris).

Ma altre inversioni sono meno ovvie e non riconducibile solo all’esaurimento di risorse. L’economia ne conosce molte, a partire dalla più semplice legge della determinazione del prezzo in funzione della domanda dell’offerta. Ogni nuovo prodotto nasce da uno squilibrio tra domanda e offerta. Fino a quando l’offerta è inferiore alla domanda, il prezzo sale; quando l’offerta supera la domanda, il prezzo scende. Questo è un fenomeno poco chiaro per la maggioranza delle persone, come lo è l’andamento dell’inflazione su scala nazionale. Ingenuamente, ci viene più facile immaginare che un incremento della produzione sia un fatto positivo e sempre possibile, che a volte si interrompe con una crisi. A scuola abbiamo tutti studiato le cause del declino dell’impero Romano come se un processo, che naturalmente avrebbe avuto una crescita indefinita, avesse all’improvviso incontrato un ostacolo – anziché studiarlo dall’inizio come un fenomeno possibile solo entro i limiti consentiti dalle tecnologie della comunicazione dell’epoca (la strada, il cavallo), ma che oltre un certo limite non avrebbe potuto mantenersi.

 

3. Anche all’epistemologia per molto tempo  questo andamento sembrava ignoto. La storia della scienza era raccontata come una successione lineare di teorie sempre più potenti: una teoria è migliore di un’altra perché spiega le stesse cose di quella, più altre ancora. La concezione eliocentrica permette di spiegare gli stessi fenomeni di quella geocentrica, ma spiega anche facilmente  l’orbita lunare.La scienza sembrava avere una crescita monotòna, non puà che progredire sempre. Ogni tanto ci sono degli incidenti di percorso, ma non hanno a che fare con la natura della scienza stessa.

L’importanza dei limiti di applicazione di una teoria che sembrava assoluta è uno dei risultati epistemologici più importanti della relatività ristretta di Einstein. Forse per la prima volta è stato chiaro come funziona l’avvicendarsi delle teorie scientifiche: la teoria einsteniana non nega la concezione di spazio e tempo assoluti di Newton, ma ne restringe l’applicabilità entro certe condizioni (quelle in cui la velocità dei corpi presi in esame sia molto lontana da quella della luce). In questi contesti (che sono quelli della fisica quotidiana), si può prescindere dalla considerazione della variazione della lunghezza in funzione della velocità. Quando ci si sposta nel microuniverso delle particelle subatomiche, la massa dei corpi non è più costante, con le conseguenze paradossali ben note.

Oltre agli effetti eclatanti (in tutti i sensi) della nuova teoria, la relatività ristretta ha permesso di capire un meccanismo centrale dell’avvicendamento delle teorie scientifiche. Ogni teoria ha delle condizioni di applicazione alla realtà, cioè dei limiti. Se si ignorano queste condizioni, si hanno teorie astratte che prima o poi si scontrano con l’esperienza.

Questo significa in generale ridefinire i concetti che si usano ponendo l’attenzione proprio sulle condizioni operazionali del loro uso, piuttosto che sulle loro proprietà astratte (Bridgman). Se ci si concentra sulle condizioni di applicazioni dei concetti, si scopre perché l’andamento di certi fenomeni si inverte: mentre prima si faceva astrazione da una variabile (l’attrito, la temperatura, la velocità), ora ci si accorge che questa variabile – che è sempre presente – diventa significativa ma solo al di sopra di un certo valore.

In generale, la funzione che rappresenta l’andamento del fenomeno non è più monotòna e l’equazione diventa di secondo grado:

y= ax2+bx + c

con a<0.

Visivamente, alla rappresentazione come retta si sostituisce una parabola.

 

4. L’organizzazione dei curricula scolastici  prevede che si  parta da sistemi semplici, in cui si fa astrazione dai limiti imposti dal contesto, per poi arrivare a sistemi complessi, realistici. Si studiano le proprietà del triangolo astratto prima di scoprire le geometrie non euclideee (quelle in cui la somma degli angoli interni di un triangolo può essere maggiore o minore di 180 gradi). Prima il moto rettilineo uniforme, poi la caduta dei gravi.

Questo è dettato sia da un principio regolativo fondamentale della pedagogia che è difficile criticare (dal semplice al complesso, dall’elemento alla struttura),  ma anche dalla sequenza storica in cui le scienze si sono evolute. La geometria è venuta prima della cinematica e prima della termodinamica e della sociologia. Inoltre la matematica delle relazioni lineari è più semplice di quella delle relazioni a più variabili.

Purtroppo il risultato è che mentre tutti gli studenti affrontano la versione semplificata della teoria, solo i pochi che seguono un’istruzione scientifica superiore riescono ad avere accesso alla versione complessa. Con il risultato che i più di fronte a fenomeni non lineari restano perplessi e non li capiscono.

Una parte della responsabilità di questa incomprensione diffusa ricade, oltre che sugli istituti educativi, sui media. Quando ad esempio si dice che una situazione di povertà può essere migliorata con maggiori investimenti (es. nelle monoculture, nel turismo), si dimentica di dire che ci sarà un punto in cui gli effetti collaterali degli investimenti produrranno un decremento degli effetti positivi per gli abitanti, fino eventualmente alla catastrofe (inquinamento, esaurimento delle risorse naturali, emigrazione etc). E temo che la catastrofe inattesa sia più vendibile del continuo ritornello delle profezie apocalittiche ecologiste.

Dopo la catastrofe, parte la ricerca delle soluzioni ad hoc (ad esempio, il “turismo sostenibile”). Che viene capito come un ripiego, perché l’inversione di direzione della y non viene vista come un evento prevedibile ed intrinsecamente legato alle variabili in gioco, ma come una specie di punizione divina per l’eccesso di orgoglio umano. Il progresso di per sé sarebbe infinito, ma purtroppo a volte crea dei mostri. “La prossima volta faremo meglio”, ci dicono. E noi ci crediamo, perché pensiamo che in fondo si è trattato solo di sfortuna.

 

 

5. Viene il dubbio – almeno a me – che forse si dovrebbe partire dall’insegnamento del fatto basilare che ogni fenomeno di crescita anche semplice non è mai riducibile a due sole variabili, una indipendente e l’altra dipendente; ogni crescita che sembra lineare lo è solo all’interno di certe delle condizioni di equilibrio. Ogni rappresentazione in forma di retta è corretta solo all’interno di certi limiti. Ogni retta è solo una porzione di una parabola che non vediamo nella sua interezza.

E sono limiti che è importante conoscere: prima si individuano tutte le variabili in gioco, prima si capisce se il gioco vale la candela.

Sarebbe bello se per una volta le possibilità di rappresentazione dinamica e multimediale offerte dai dispositivi digitali nella formazione (e-learning compreso) fossero usate per fare qualcosa di nuovo: per spiegare e mostrare sensibilmente l’andamento di questi fenomeni anche a livello di educazione elementare, come si fa già con strumenti come Geogebra http://www.geogebra.org/cms/it/. Simulazioni semplici di realtà fisiche, sociali ed economiche complesse che lasciando da parte – per il momento – la struttura matematica più astrusa si limitino a mostrare in maniera comprensibile a tutti cosa succede quando si preme sull’acceleratore dell’economia.

Chissà, questo forse produrrebbe generazioni capaci di “vedere” il contesto, di cercare sempre le variabili nascoste e in generale meno impreparate di fronte ai satelliti che cadono, alle api che si estinguono o alle isole di spazzatura che navigano al largo del Pacifico.

Sociolinguistica degli artefatti digitali

Mag
30

Questo titolo roboante è anche il titolo di un seminario, a cura del sottoscritto e di Maurizio Mazzoneschi, che si è svolto a Carrara, all’Accademia di Belle Arti il 18 maggio 2010.

La domanda più ovvia è: cosa c’entrano gli artefatti digitali con le belle arti? questo era appunto il contenuto del seminario…

Grazie alla lungimiranza del direttore della Scuola di Nuove Tecnologie dell’Arte, Tommaso Tozzi, è stato possibile condurre questo seminario ibrido alla presenza di alcuni docenti (Enrico Bisenzi e Massimo “Contrasto” Cittadini) e studenti.

Un resoconto molto preciso e completo del seminario si può leggere sul blog ScaccoAlWeb a cura di Enrico Bisenzi http://scaccoalweb.dotblog.it/2010/05/programmare-%C3%A8-come-narrare.html
Materiali relativi al seminario possono essere scaricati da http://ada.lynxlab.com/staff/steve/public/docu/lidia/carrara/.

L’invito al seminario recitava quanto segue:

Siamo alla fine del millennio scorso. Per caso, un esploratore si imbatte in un continente sconosciuto, di dimensioni vastissime. Strade, città e biblioteche, e nelle biblioteche milioni di testi, scritti non in una sola, ma in decine e decine di lingue diverse. Testi diversi di autori diversi, dedicati ai fini più differenti, cortissimi e enormi, scritti a più mani, criptati, fondamentali o inutili.
Scritti per essere usati, per essere letti o  per essere analizzati e insegnati.
Da una prima analisi di questi milioni di testi, sembra di poter dire agli esploratori che ci sono stati periodi, scuole diverse, mode. Che aree diverse del continente hanno prodotto autori riconoscibili, che a loro volta hanno insegnato e influenzato altri autori.
Di tutto questo, niente è mai stato raccontato, né qui da noi né altrove.
Il continente di cui vogliamo parlare è quello dei codici sorgente dei  programmi. Più di 50 anni di letteratura, più di 2000 lingue diverse. Un corpus di testi dalle dimensioni quantitative enormi: l’archivio su web più noto di software OpenSource, SourceForge.net, contiene quasi un milione di “libri” diversi relativi solo agli ultimi 5 anni. Eppure nessun’indagine, nemmeno di ricognizione, è stata condotta finora da un punto di vista linguistico, stilistico, retorico.
Quello che stiamo cercando di fare è trovare un posto a questo continente all’interno della cartografia, accanto ai territori più noti in cui si sono incontrate (persone e) discipline tanto diverse come
linguistica e informatica; poi cercheremo di capire il perché di questo lungo nascondimento, e proveremo a immaginare l’apocalissi, cioè di modi concreti di comunicare la nostra scoperta al mondo.”

Formazione e PNSD: il nuovo sito

Mag
17

Finalmente oggi (17 maggio) è online il sito di accompagnamento alla formazione del PNSD.

Schermata da 2016-05-18 11:15:13

http://www.formazionepnsd.it/

Premessa dovuta: non ce l’ho a priori né col MIUR, né con il ministro (la ministra?) né con chi orchestra il piano o chi lo realizza concretamente.

Sono solo un cittadino che ha due figli in età scolastica, che ha una certa esperienza in siti, piattaforme e didattica con le tecnologie digitali. Per cui avendo in mente questi destinatari finali e con questo ingombrante bagaglio, pieno di buona volontà, vado a vedere come è fatto e cosa contiene il sito che fino a ieri era fantasma. Giuro, senza preconcetti. Il sito è fatto con WordPress. Perché no?

E’ colpa mia se provo a leggere i documenti sull’accessibilità (che è un obbligo sancito da una legge dello stato) e non li trovo? Nel senso che il link (in basso a destra) c’è, ma non porta da nessun parte, al momento. Arriverà.

Vado alla sezione “contenuti digitali”, guardo il video di Gino Roncaglia e poi cerco le risorse relative all’Azione 22 “Standard minimi e interoperabilità degli ambienti on line per la didattica“. Non c’è ancora nulla. Peccato, era un tema interessante, che doveva secondo me trovare il giusto spazio anche nel recentissimo bando sulle biblioteche scolastiche. Dove si lascia che 500 scuole progettino un ambiente fisico e digitale per permettere l’accesso da parte degli studenti a contenuti digitali, ma senza indicare appunto standard minimi per l’interoperabilità di questi 500 ambienti. Standard non di digitalizzazione di libri, ma appunto di interoperabilità, che permetterebbero di far parlare questi 500 ambienti, fare ricerca trasversali, e chissà che altro. E’ vero, ci sono anche 44.000 € per un progetto che appunto dovrebbe costruire un sistema informatico che metta in rete tutti gli altri, ma… a posteriori? Senza indicare un minimo di regole generali per facilitare appunto l’interoperabilità?

Pazienza, arriveranno risorse anche in questa sezione. Ci sono però già risorse nelle altre aree, per esempio l’Azione 23 Biblioteche Scolastiche come ambienti di alfabetizzazione all’uso delle risorse informative digitali. Ci sono quattro articoli con fonte INDIRE. Ma come si punta a queste risorse? Come sono categorizzate? Che metadati? Che licenze? Niente.

Per esempio, la URL di una risorsa è http://www.fupress.net/index.php/formare/article/download/15439/15119. Dalla URL non capisco nemmeno che è un file PDF. Un altro link invece punta a  http://www.scuolavalore.indire.it/nuove_risorse/il-podcast-a-scuola-3/. Se vado sul sito Scuolavalore di  INDIRE (anche lui fatto con WordPress, per dire) trovo finalmente qualche metadato (argomento, grado, tipologia, condizioni d’uso, livello didatec) e delle tag (podcast, flipped learning, mobile learning). Posso fare una ricerca per argomento, grado, etc.

Schermata da 2016-05-18 11:09:45

Invece le risorse censite sul sito formazionepnsd.it non hanno una URL “parlante” e univoca (che so, http://www.formazionepnsd.it/competenze-e-contenuti/contenuti-digitali/3) che si possa inserire in un percorso di formazione, linkare, condividere. E non c’è nemmeno una ricerca, al momento.

Ma non sarebbe stato più utile, che so, un censimento dei repository di risorse didattiche di qualità? O meglio un meta-motore di ricerca che permettesse ai docenti di cercare risorse contemporaneamente su http://www.scuolavalore.indire.it, su https://www.oercommons.org/advanced-search, http://freeloms2.pa.itd.cnr.it/xmlui/advanced-search ?

Schermata da 2016-05-18 11:12:48

 

O magari – esagero – un pezzettino di HTML da copiare e  inserire in qualsiasi sito scolastico e permette di fare la stessa ricerca direttamente da lì? O al contrario, un modulo dove segnalare al MIUR il proprio repository scolastico di risorse educative in modo che sia possibile includerlo tra quelli ricercabili?

Ergo: non è un portale di risorse per la formazione, è una vetrina in cui vengono selezionati e mostrati link ad altre cose. Non è un archivio di risorse, né una porta verso altri archivi; è solo un sito gestito con WordPress. Non è pensato per essere usato da altri siti e portali o piattaforme, cioè per essere interoperabile. Bisogna entrare e navigare, e poi andare altrove.

Niente, non avevo capito.

 

Digitale: un’etimologia istruttiva

Mar
02

Il testo che segue è una rielaborazione dell’introduzione al libro di Valeria Zagami “Fare scuola nella classe digitale: tecnologie e didattica innovativa fra teoria e pratiche d’uso innovative”, Loescher, I quaderni della ricerca, 2014.
________________________________________________________

1. Digitale è una parola d’uso comune, di cui forse non comprendiamo completamente il senso. Lo usiamo come aggettivo e come sostantivo astratto, sappiamo in generale distinguere cosa è digitale e cosa non lo è, ma poco di più. Ci sfugge il fatto centrale che digitale è un termine inerentemente plurale: ogni oggetto digitale fa parte di un sistema, contiene delle parti di codice genetico identico a quello degli altri oggetti; li imita e ne è imitato, in un processo continuo che non sarebbe stato possibile con i media predigitali.
Quando Bolter e Grusin parlavano di “remediation” agli inizi di questo millennio, avevano in programma di spiegare il rapporto di tra media digitali e analogici continuando l’opera di McLuhan. I media digitali non sono alternative radicali, né derivano da quelli analogici, ma li riprendono al loro interno, li ri-mediano appunto, e così facendo conferiscono loro nuovo significato. Così, ad esempio, il podcast ri-media la radio. Una modalità di rapporto che si era già data nel rapporto tra pittura e fotografia, o tra l’incunabolo e il libro a stampa.
I media digitali fanno di più: essi sono uno parte dell’altro. Sicuramente dal punto di vista fisico: gli stessi chip permettono il funzionamento di un orologio, di un telefono, ma anche di una macchina fotografica e di una radio. Poi dal punto di vista dei linguaggi di programmazione, che sono gli strumenti che permettono allo stesso chip di comportarsi in maniera tanto diversa. Oggi penso sia il momento di interrogarsi anche su come le singole incarnazioni di ogni medium digitale si imitino e richiamino fra loro a livello di interfacce e funzionalità: dalla replicazione reciproca delle funzioni tra le piattaforme Social (Facebook / Google Plus / Twitter) ai browser che sempre più sono piattaforme generiche dentro cui innestare programmi diversi (Chrome, Firefox), dalle interfacce dei bancomat costruite per imitare i telefonini fino ai sistemi operativi indipendenti dai dispositivi (Windows 8, Android, Linux).
Così facendo, semplificano la transizione dall’ignoto al noto; poggiando su metafore e abitudini già inveterate, facilitano l’acquisizione di nuove funzionalità, ma si portano dietro anche qualche traccia del vecchio “modo d’uso” e, a volte, introducono nuove difficoltà.
La LIM non sfugge a questo destino, e forse la sua natura si capisce meglio in quest’ottica sistemica.

 
2. Ma cosa significa, in Italiano, “digitale”? Cosa ci passa per la mente quando diciamo che la LIM fa parte della famiglia delle tecnologie digitali? Come abbiamo cominciato ad usare questa parola?
Tutto comincia con gli orologi digitali. Se ne vede ancora qualcuno: sullo schermo pallido l’ora era espressa con cifre, anziché con le tradizionali lancette (anche se per brevi periodi sono apparsi curiosi orologi digitali con le lancette disegnate sullo schermo LCD). Cosa avevano di diverso dagli orologi tout court (che poi avremmo imparato a chiamare “analogici”)? Consumavano poco, si leggevano anche di notte, permettevano l’uso anche al bambino che ancora non avesse imparato a “leggere l’ora”.
Perché si chiamavano digitali? La parola “digitale” è un calco dall’Inglese americano, e viene dai laboratori Bell dove era stata inventata e usata a partire dagli anni ’40. Ma esisteva già in Italiano come sostantivo (la digitale è una pianta dai fiori simili a ditali), come aggettivo riferito alle impronte, come derivato (prestidigitazione) e persino come verbo (digitare, in musica sinonimo di diteggiare). Con l’arrivo dell’elettronica di consumo, “digitare” viene a significare “premere con le dita i tasti di un apparecchio elettronico”, incrociando il senso classico (relativo alle dita) con quello moderno (relativo ai computer). Dunque digitale è una macchina che si pilota con le dita?
Un’occhiata ad un dizionario ci porta invece in un’altra direzione. “Digitale” deriva da “digit”, in inglese “cifra”, precisamente di un sistema a base dieci, come le dita delle due mani. Infatti a sua volta “digit” deriverebbe da “digitus”, in latino per “dito”. Seconda ipotesi: un orologio digitale è un orologio con le cifre al posto delle lancette?
La parola inglese “digital” però non ha esattamente il senso che sarebbe ovvio (“un modo di rappresentare i numeri con cifre da 1 a 10”) ma significa numerabile, discreto, nel senso di non continuo (in Francese, numérique). Una grandezza per essere trattata dalle macchine deve essere prima campionata, cioè devono essere estratti alcuni valori rappresentativi, i quali siano numeri finiti. E mi perdoneranno le imprecisioni quanti si occupano professionalmente di questi temi.
Quindi un orologio digitale (a prescindere dalla questione della base di numerazione utilizzata, che nei computer è 2 invece di 10) è una macchina in cui il tempo non sia misurato e rappresentato tramite un sistema a variazione continua, come lo srotolarsi di una molla, ma da un sistema discreto, come un oscillatore al quarzo, che vibra ad una frequenza altissima. Il fatto che sullo schermo dell’orologio lo scorrere del tempo sia rappresentato da cifre (digit), anziché da lancette, è del tutto secondario, e infatti la stragrande maggioranza degli orologi digitali ha oggi un rassicurante look tradizionale. Ma il suo cuore è completamente diverso: è computer programmabile.

 
3. Un processo simile è quello che ha portato alla nascita degli smartphone a partire dai comuni telefoni. Come siamo passati dall’apparecchio in bachelite nera che troneggiava in salone o all’ingresso all’oggetto di design che viene regalato per la Prima Comunione? Quali sono i cambiamenti che ne hanno fatto una delle innovazioni – socialmente e generazionalmente trasversali – con il maggiore impatto degli ultimi vent’anni? Come è arrivato ad essere “il” dispositivo centrale del nostro ecosistema di comunicazione, con una diffusione che supera quella di qualsiasi altro?
La rivoluzione più evidente è quella che consente di tenere in mano il telefono: quasi contemporaneamente, tra gli anni 70 e 80, nascono i cordless casalinghi e i telefoni cellulari portatili, che non hanno bisogno di collegarsi una rete fissa, ma ne usano una radio, prima analogica e poi digitale (nel senso consueto: basata su pacchetti di bit). Il peso ridotto – insieme alla libertà dal filo – si porta dietro la possibilità di telefonare camminando, elimina di fatto dalle case un luogo (l’angolo del telefono), aprendo ad infiniti usi diversi e condannando ogni utente alla reperibilità costante. Da qui in poi il telefono è un oggetto personale, non familiare o d’ufficio, che catalizza affetti e passioni più che richieste di funzionalità.
Se guardiamo dentro un telefono attuale, capiamo che a pieno titolo fa parte delle famiglia dei dispositivi digitali. Dentro a un telefono digitale vengono utilizzati chip generici, programmati e riprogrammabili, che non sono diversi da quelli di un computer o di una reflex. Questo abbassa i costi di produzione e permette di utilizzare software comuni (Android). Anche se la durata della batteria e la qualità del suono è importante, l’accento si sposta sempre di più – come per ogni altro dispositivo elettronico – dall’hardware al software che lo pilota. Smartphone di discreto valore sono stati surclassati da altri quasi identici ma con un sistema operativo diverso, che dà accesso a migliaia di applicazioni gratuite e non. Dal fatto che per gestire le funzioni di chiamata si usino circuiti digitali, e non dispositivi elettromeccanici, discende la possibilità di aggiungere una memoria delle chiamate, una rubrica interna, e la possibilità per l’utente di configurare il comportamento del telefono (la suoneria, la connessione alle reti). Il mio telefono diventa presto diverso dal tuo.
Ma l’innovazione centrale è forse quella relativa all’interfaccia, prima logica e poi fisica. Oltre ai tasti numerici e ai tasti misteriosi che permettono funzioni specifiche per i centralini, compaiono i tasti di “navigazione”: due o quattro frecce per navigare in un menù, cioè scegliere una funzione non in base ad una predisposizione hardware (un tasto apposito), ma muovendo un cursore ideale in un grafo che l’utente deve immaginarsi, di cui vede un pezzetto per volta, spostandosi dal nodo genitore ai nodi figli, e da questi ai nodi fratelli.
Questa modalità di selezione della funzione tramite un menù ad albero nasce prima del suo corrispettivo supporto visivo, cioè ben prima dell’arrivo di uno schermo grafico, prima in bianco e nero e poi a colori, e delle icone. E’ una delle innovazioni più importanti e trasversali, che ha un enorme impatto sull’utente e ha contribuito tra l’altro a creare quel “digital divide” che mette in difficoltà un utente un po’ anziano di fronte ad un bancomat moderno o di fronte ad un risponditore automatico.
Con le icone sullo schermo LCD (mutuate dalle interfacce dei PC), si poteva navigare muovendo un puntatore tramite dei pulsanti, il che naturalmente era abbastanza lungo e controintuitivo: finalmente si arriva al touch screen, che permette la selezione diretta dell’icona con un dito o un pennino apposito.
E alla fine arrivano le “gestures”, la possibilità di sfruttare il trascinamento, di utilizzare due dita per dare comandi diversi (con tutta la terminologia al seguito: “pinch”, “swipe”, etc). Gli ultimi telefoni in circolazione – mentre scrivo queste righe – assomigliano a specchietti da borsetta: sono parallelepipedi di plastica con un lato occupato interamente da un grande display. Contemporaneamente, arriva al suo stadio finale la convergenza di computer portatili e telefoni in un oggetto nuovo: il tablet.

 
4. La diffusione della LIM nelle scuole Italiane, grazie ai Piani Nazionali e all’azione di ANSAS, ma anche alla disponibilità degli enti locali, è andata avanti a partire da quel lontano 2006 in cui è stata introdotta ufficialmente a livello nazionale, anche se ad un ritmo meno soddisfacente di quello che ci si sarebbe aspettato, e non senza detrattori.
Alcuni hanno sostenuto che non c’è nulla che si faccia con una LIM che non potrebbe essere fatto con un proiettore e uno schermo. Ma senza arrivare a tanto, cosa differenziava immediatamente la LIM da un grosso televisore LCD, dal costo molto inferiore? Il fatto che si potesse toccare con le dita. E questo non attraeva per niente il docente nel 2006.
D’altra parte la scuola è abituata a subire le innovazioni tecnologiche: che siano Piani Ministeriali o mode effimere pilotate dai produttori, difficilmente il bisogno di tecnologia è nato all’interno di essa, né si è precisato sulla base di un lavoro collettivo di insegnanti (e studenti…). Anzi: la risposta è arrivata prima ancora dell’espressione del bisogno, con i risultati che sono sotto gli occhi di tutti.
Fino a qualche tempo fa, la reazione degli insegnanti verso la LIM era piuttosto negativa: fastidio, imbarazzo, incomprensione. Se era chiaro che la LIM andava a sostituire la lavagna (quindi una parte dell’attrezzatura di classe di pertinenza del docente), non si capiva bene perché usarla, se non per catalizzare l’attenzione dei ragazzi sul contenuto della lezione anziché sul suo attore principale.
Oggi la disposizione d’animo verso la LIM è sensibilmente migliorata: anche l’insegnante meno integrato è interessato almeno a provare ad usarla. Ben vengano libri come quello che state leggendo, che aiutano a superare la fase in cui il nuovo viene usato allo stesso modo del vecchio, suggerendo modelli avanzati e raccontando esperienze positive.
Quello che è cambiato in questi pochissimi anni non è tanto la competenza tecnica del docente, ma proprio la sua apertura mentale. E non tanto nel senso che ha finalmente compreso le possibilità che un setting tecnologico più avanzato del trittico “cattedra-lavagna-cartageografica” può schiudere per la didattica, ma nel senso che finalmente di questo setting non ha più paura, lo comincia a sentire suo ed è disponibile a sperimentarlo.
Sospetto che la vera causa di questo mutamento di prospettiva non sia affatto la formazione tecnica (a cura di ANSAS, degli ex IRRE o dei distributori italiani delle LIM). Penso si possa riconoscere in questo cambiamento un effetto collaterale di un fenomeno apparentemente lontano: quello della diffusione anche tra gli adulti degli smartphone dotati di touchscreen.
Secondo un recente studio di Nielsen, il 97% degli Italiani ha un cellulare, il 62% ha uno smartphone; la maggioranza degli utenti si colloca nella fascia 35-64 anni. E’ sempre più facile vedere in luoghi pubblici una signora di un certa età che al richiamo di una suoneria improbabile cerca affannosamente nella sua borsetta ed estrae un telefono 13×7 su cui comincia a trascinare le dita, con una certa difficoltà per via delle unghie laccate. Non è imbarazzata, si muove con agilità tra i diversi gruppi di icone, passa da un’applicazione all’altra con una facilità impensabile fino a poco tempo prima. Questa stessa signora, una volta entrata in classe, non ha più difficoltà a muoversi tra i diversi menù della LIM, che in fondo è un telefonino un po’ più grande. Ha imparato le logiche d’uso di queste interfacce in un ambito personale ed è pronta a trasferirle in quello lavorativo.
Insomma non sono – per una volta – i nativi digitali a dettare l’agenda dell’introduzione delle tecnologie nella scuola, ma gli immigrati.

 
5. L’etimologia popolare a volte è potente e vince su quella dei grammatici. Digitale, alla fin fine, viene a significare proprio “che si usa con le dita”. E così la LIM, grazie al suo apparentamento con gli smartphone, i tablet e i lettori di ebook, sia in termini di costituzione interna che di logica d’uso, diventa un dispositivo familiare anche per il docente.
Ripercorrere la storia di questo incrocio mi è sembrato utile per capire e per progettare degli usi “sostenibili” delle LIM – o, se è per questo, di ogni altro dispositivo digitale – anche all’interno della scuola. E’ una storia di falsi progressi, di errori, di innovazioni centrate non sull’utente ma sulla disponibilità di tecnologie da campi affini. Ci dovrebbe insegnare a gestire l’inserimento delle innovazioni in maniera più cauta, tenendo conto di ciò che accade in campi limitrofi, facendo attenzione alla reazione emotiva, oltre che a quella cognitiva, di chi dovrà usarli. E ci dovrebbe stimolare a pensare sempre ai media come un sistema, in cui nessuna parte può essere pensata escludendo le altre.

Basta coi dati, ancora più dati

Ago
15

Dati come algoritmi: ne parlano tutti, a qualsiasi proposito, a volte anche confondendoli. E si capisce, perché gli algoritmi senza dati girano a vuoto. Si legge e si ascolta sempre più spesso “I dati ci dicono che”, “Andiamo a vedere i dati”, “Ci vogliono nascondere i veri dati”. Ma a forza di citarli come risposta finale a tutte le domande, anche la pubblica amministrazione ha capito che si possono usare a fini di comunicazione.

Dalla sindaca di Roma che traccia le biciclette sulle piste ciclabili al software della sottosegretaria Floridia che “calcola il flusso dei tragitti che gli studenti fanno per venire a scuola”, sembra che la nuova tendenza non sia quella di aumentare l’apertura dei dati esistenti, ma di aumentare i dati raccolti da parte della PA.

Tracciare i movimenti e gli accessi, registrare i dati prodotti da azioni umane, è il nuovo dispositivo che da solo certifica l’approach modern e anche smart di una governance near ai citizens. Prima ancora di dire qual è il progetto generale e come quei dati verranno utilizzati, si annuncia la loro raccolta. Come se questa da sola fosse sufficiente; come se ogni raccolta non contemplasse un filtro e una trasformazione; come se i dati si potessero usare senza archiviarli, con il rischio che qualcuno se ne impadronisca (come è successo più volte).

Sul versante opposto, dopo aver richiesto a gran voce la pubblicazione dei dati del COVID, adesso le voci si alzano contro la registrazione dei dati (per esempio, contro il Green Pass) a volte anche senza sapere esattamente quali dati vengono raccolti, da chi vengono trattati, dove vengono archiviati e per quanto tempo. Cosa dice, esattamente, il QR Code? Anzi: cosa ci nasconde?

L’impressione è che da entrambe le parti ci sia superficialità e che tutto si svolga intorno alla parola “dati” più che intorno al concetto di raccolta di dati. Raccogliere i dati è segno di attenzione al territorio oppure è un furto di identità da parte di un sistema sempre più Grande Fratello?

Dal lato della PA, i proclami sono sempre molto opachi sul come quei dati potranno essere utili a tutti i cittadini, su come verranno protetti ora e i futuro, su quali flussi seguiranno. E’ facile pensare che ogni passo nella direzione del monitoraggio dei cittadini (o degli studenti) possa essere un precedente per altri passi più invasivi. Se un Comune può monitorare i passaggi delle biciclette (che per il momento non hanno una targa, e quindi non possono essere ricondotte ad un proprietario), cosa impedirà domani di costruire un Bicivelox che permetta di aggiungere entrate nella casse del Comune stesso? Se vengono tracciati i percorsi casa-scuola degli studenti, cosa impedisce di farlo anche per i docenti? Eccetera. Sono domande che sorgono spontanee nel momento in cui non c’è la necessaria trasparenza sull’uso di quei dati, sulla base legale, sui limiti non solo tecnici.


L’effetto di questo aumento della presenza dei dati come salvatori o come diabolici si mostrerà presto, a mio parere, in un movimento intellettual/popolare di ribellione all’acquisizione di dati. Un movimento che si presenterà come unito per poi spaccarsi in due ali francamente mosse da interessi diversi.

La parte intellettuale sosterrà che l’acquisizione dei dati (o la trasformazione in dati di azioni) è la nuova forma di creazione di valore a partire dalla vita delle persone. Che sia una processo gestito da grandi soggetti privati o da soggetti pubblici, e indipendentemente dalla finalità, si chiederà che nessun modello di machine learning possa essere addestrato sulla base di comportamenti ad alto valore professionale.

Un caso particolare di questa critica riguarderà i professionisti che vedranno scomparire il loro valore e sul mercato man mano che i dati del loro comportamento professionale saranno accumulati e utilizzati per il training di modelli di Machine Learning. Traduttori, programmatori, giornalisti per primi, poi in futuro docenti, medici, avvocati, architetti si renderanno conto che vanno incontro alla scomparsa come i panda. Anche l’università, e la formazione professionale in generale, si accorgeranno finalmente che rischiano un radicale ridimensionamento.

La parte popolare si limiterà a invocare il diritto all’opacità di ogni cittadino di fronte allo Stato, a difendere una generica libertà individuale. In un’unica rivendicazione verranno inclusi i dati fiscali, quelli produttivi, quelli formativi. Sarà facile per i movimenti politici che già fanno leva su questo tipo di istanze libertarie (nel senso della libertà del singolo individuo) cavalcare anche questa rivendicazione all’interno di un progetto politico liberista che punta a ridurre la presenza dello stato nella società.


Penso che questi movimenti vadano distinti, e le loro motivazioni analizzate con chiarezza. Se è vero che i dati sono il nuovo petrolio, nel senso che l’estrazione dei dati dalle azioni delle persone è la fonte principale di valore, questo valore va rivendicato sempre, soprattutto quando su quella base si costruiscono servizi che vanno a sostituire professioni avviando un percorso senza ritorno di rinuncia alla conoscenza teorica. Ma si tratta di un modo di raccogliere e usare i dati che è proprio primariamente di un numero ristretto di grandissime aziende, e che sta funzionando da modello e attrattore anche per le altre. Questo non ci esime dal cercare di ottenere da queste aziende una forma di autocontrollo; ma possiamo anche cominciare a pensare di usare meno servizi “gratuiti”, cioè pagati con i nostri dati, e usarne di nuovi a pagamento che però diano maggiori garanzie di trasparenza. Piccoli passi che ci aiuterebbero anche ad uscire dal sostanziale monopolio di servizi digitali in cui ci troviamo ora.

Per questo è necessario che la PA sia trasparente per quanto riguarda i percorsi di questi dati: perché anche se i suoi scopi sono diversi, la maniera di raggiungerli potrebbe implicare un passaggio (a costi limitati o addirittura senza costi) proprio per uno o più di questi fornitori di servizi.

Non si tratta tanto di proteggere il diritto del cittadino a nascondere alla PA i propri comportamenti, magari sul bordo dell’illegalità, ma di sancire il diritto di ogni cittadino, nei confronti della propria PA, di sapere cosa viene registrato, a chi viene consegnato e per quali usi, ed eventualmente limitare questi usi, così come si è fatto nel caso dei dati personali dal GDPR. Ma se il GDPR era nato per proteggere le economie dei Paesi europei contro la concorrenza di altri Paesi un po’ più leggeri nella gestione dei dati personali, stavolta si tratta di proteggere i diritti prodotti dai cittadini stessi, che non sono dati personali ma appartengono comunque alla sfera del valore e non solo a quella della tecnica.

Come per quanto riguarda i dati personali, la via più facile sarebbe quella di anonimizzare i dati, in modo che non sia possibile risalire al cittadino da cui sono stati prodotti. Purtroppo è una strada scivolosa e difficile. Facciamo un esempio: l’anonimizzazione può essere applicata per default oppure solo su richiesta del cittadino.

Nel primo caso, siccome i dati hanno senso soprattutto quando vengono incrociati, bisogna costruire un cittadino-doppio, un avatar anonimo su cui convergano tutti i dati raccolti. Questo doppio, identificato da un codice univoco all’interno della PA, non potrebbe davvero perdere il legame con il cittadino reale, altrimenti non sarebbe più possibile collegare i nuovi dati raccolti a quelli precedenti. Quindi il problema si sposta semplicemente dai dati al codice, dal tesoro alla chiave.

Nel secondo caso, quello di un’anonimizzazione su richiesta esplicita da parte dei cittadino, sorge il problema della propagazione a catena dell’anonimizzazione su tutte le repliche dei dati. Senza un protocollo che impone di tenere traccia di ogni replica, di ogni accesso in copia, sarebbe evidentemente impossibile assicurare il cittadino che tutte le copie sono state anonimizzate.

Insomma, in pratica i dati prodotti da un cittadino e quelli identificativi del cittadino restano connessi. E di qui il problema.


Spesso si dice che siccome le persone hanno già ceduto la maggior parte dei propri dati ad aziende private (l’uso della carta di credito, l’uso del telefono, gli spostamenti fisici, la navigazione web e in generale l’uso di servizi via Internet, i propri interessi e preferenze, la propria rubrica) non ha senso preoccuparsi dei dati forniti alla PA. E’ il tipo di critica che si riceve quando si parla di protezione dei dati all’interno di un social network. Fa venire in mente lo scrutatore non votante che “si fa la doccia dieci volte ma ha le formiche sulla tavola”.

Credo invece che i discorsi vadano tenuti separati. Da una parte è possibile, anche se difficile, condurre una vita senza cedere i propri dati ad aziende private, nel momento in cui si riesce a rinunciare ai servizi, a pagamento o gratuiti che siano, che queste offrono in cambio dei dati stessi. Si può vivere senza usare Google Maps, senza Gmail, senza Android, senza Windows e naturalmente senza social network centralizzati. Si possono cercare alternative, gratuite o a pagamento. Si possono fornire dati imprecisi, contraddittori o parziali.

Ma non si può vivere senza carta di identità, senza pagare le tasse, senza un fascicolo sanitario. In un caso c’è un contratto esplicito, accettato, che prevede uno scambio più o meno trasparente di dati contro servizi. Nell’altro caso, il contratto tra la persona e lo stato inizialmente non viene nemmeno firmato dalla persona, ma dai genitori al momento dell’iscrizione all’anagrafe. Quel contratto non specifica cosa lo stato possa fare in seguito con i dati del cittadino, ma fa riferimento alla Costituzione, alle Leggi statali e regionali. Da quel contratto si può uscire veramente solo rifiutando del tutto ogni nazionalità, o scegliendone una diversa.

Per questo è importante che la PA sia in grado di esporre un protocollo di raccolta dei dati che sia chiaro, inattaccabile, funzionale.


Una delle situazioni in cui questo problema potrebbe presentarsi improvvisamente (anche se le premesse sono presenti da anni) è quello della raccolta dei dati nella piattaforme di DaD, o di e-learning. Il tracciamento del comportamento degli studenti (non solo i voti o gli accessi, ma la navigazione fine, la consultazione dei link e degli allegati, la scrittura di testi, la comunicazione orizzontale) può essere più o meno spinto, e può essere più o meno usato a vantaggio degli studenti stessi, per esempio per arricchire la valutazione con dati che descrivono il comportamento degli studenti (o di un gruppo di studenti) in tempo reale, senza bisogno di aspettare il momento del test. Dati che permettono di confrontare quello che sta succedendo con quello che, in situazioni simili, ci si attende che succeda. Lo stesso potrebbe succedere, a breve, relativamente alla registrazione dei dati dei docenti: accessi, comunicazione con gli studenti, creazione di contenuti aggiuntivi, valutazione.

Da un lato è evidente che questi dati potrebbero essere usati per aiutare i docenti e i corsisti, o anche gli autori di contenuti, o i progettisti delle piattaforme; dall’altro, questi dati potrebbero essere usati per selezionare gli studenti ancora prima del termine del loro corso di formazione (come nel caso di alcuni MOOC), oppure per controllare il lavoro dei docenti e sanzionarne comportamenti inadeguati. O infine, e qui torniamo a quanto detto sopra, per costruire un modello di docente che sia in grado di fare lezione, correggere gli esercizi, assegnare voti.

Anche in questo caso occorrerebbe sbrigarsi a regolamentare cosa può essere raccolto, con che finalità, per quanto tempo.

Alcune ipotesi di lavoro.

1. Si può chiedere ad una PA di fornire un bilancio tra i servizi forniti grazie all’acquisizione di dati dei cittadini e la necessaria sottrazione di privacy dei cittadini stessi. Ci saranno casi in cui i vantaggi superano gli svantaggi, ed altri in cui l’acquisizione di dati non è giustificabile. Un bilancio che dovrebbe essere pubblico, facilmente leggibile dal maggior numero di cittadini, aggiornato frequentemente.

2. Si può chiedere ai poteri legislativi di stabilire, una volta per tutte, che i dati prodotti dalle azioni dei cittadini (come quelli che ne definiscono l’identità) vengano riconosciuti come di proprietà dei cittadini stessi. Non è un passo semplice, perché i dati non sono oggetti fisici che una volta ceduti non sono più di proprietà del precedente proprietario. I dati di cui parliamo non hanno nemmeno le caratteristiche dei prodotti dell’ingegno, che devono essere originali. Un’altra difficoltà deriva dal fatto che questa richiesta potrebbe andare in direzione opposta, almeno apparentemente, a quella dell’apertura dei dati pubblici. Andrebbe applicata una licenza permissiva ma con caratteristiche speciali: per esempio, dovrebbe essere possibile tracciare l’uso dei dati e rendere possibile la propagazione del blocco del loro utilizzo.

3. Questa legge dovrebbe anche stabilire che il trattamento di quei dati deve avere come finalità primaria il vantaggio dei cittadini e non del sistema organizzativo. I cittadini, attraverso i loro dati, dovrebbero sempre essere considerati un fine e mai un mezzo, come reciterebbe la versione moderna del principio regolativo kantiano.

Quali cittadini? Solo quelli a cui appartengono i dati, o tutti? E’ evidente che scienze come l’epidemiologia hanno bisogno dei dati di tutta la popolazione per provare a fare ipotesi significative.
Insomma, i principi non bastano, ci vuole ancora tanto lavoro. Ma sarebbe ora di iniziare a farlo.

C’è una cura per la disillusione digitale?

Ago
11

La Disillusione Digitale è una forma di disagio che colpisce alcune persone, tipicamente over 50, maschi e femmine, indipendentemente dal censo o dal fisico. Tra i suoi tipici sintomi:  sentirsi stonati  in un coro di lodi del Digitale, avere sempre vent’anni di più degli altri seduti al tavolo di progettazione, provare fastidio per le terminologie anglicizzanti e per la parola di moda (ma vedi la Nota in fondo a questo testo).

I Disillusi Digitali vedono la storia alla maniera di Vico: c’è stata un’Età degli Eroi, in cui sono stati fatte tutte le scoperte più importanti, sono stati inventati i paradigmi e sono stati dati i nomi veri alle cose; e ora c’è l’Età degli Uomini, in cui il digitale è democratico e di tutti, ma se ne è perso il significato profondo.

La Disillusione Digitale in fondo assomiglia alla disillusione politica: c’è stata la Rivoluzione, poi l’era grigia del Digitale Reale, e poi il Crollo del Muro Digitale. Come quella, ha forti connotati affettivi, ma cerca di spiegare se stessa in termini di processi sociali, economici, tecnologici.

Ma forse conviene vederla in una prospettiva meno storica e più psicologica. Anzi psicoterapeutica.

Quando si parla di Digital Divide si pensa ad una linea di demarcazione tra generazioni. I giovani nativi e i vecchi immigrati, etc. Invece è un confine che ci troviamo davanti tutti, spesso, a tutte le età.

La caffettiera del masochista

La caffettiera del masochista

Intanto cominciamo a dire che il Digital Divide è solo un caso del Technology Divide (per restare all’Inglese che fa più fico). Ovvero quella sensazione, brillantemente descritta ne “La Caffettiera del Masochista” di Donald Norman, di essere dei cretini, inadeguati agli artefatti che popolano la nostra vita quotidiana.

Per esempio, andiamo al bagno al ristorante. Bagno molto chic, bellissimo, luci soft, rumori attutiti, magari pure una musichetta di sottofondo. Il cesso è il cesso, va bene, ma il rubinetto… come diavolo si usa? cerchiamo manopole, leve, pulsanti, ma niente. Agitiamo le mani sopra, sotto, ci avviciniamo, ci allontaniamo: nemmeno una goccia. Frustrazione.

Qui la semantica dell’oggetto  è chiara (è un rubinetto, deve uscire dell’acqua) ma la grammatica no (come si usa?). La nostra aspettativa di trovare appigli per le dita è frustrata. Come direbbe Norman, l’affordance dell’oggetto è scarsissima.

Un altro caso: il taglia erba si rifiuta di accendersi. Riusciamo più o meno a togliere il coperchio di plastica che copre il motore. Qui ci sono leve, levette, viti, … ma a che serviranno? Cosa regolano? Come bisogna intervenire?

In questo caso ci sfugge anche la grammatica; l’unica cosa che ci sembra di comprendere è il vocabolario  o meglio l’alfabeto (una leva è una leva, una vite è una vite). Ma da solo l’alfabeto non serve. E’ come trovarsi davanti al Cippo di Perugia: di sicuro quelle sono lettere, ma poi?

L’incapacità di regolare un orologio digitale dotato di DUE SOLI pulsante è dello stesso tipo. Ci manca lo schema mentale “menù ad albero” (un pulsante per muoversi nell’albero, un pulsante per scendere di livello o per confermare) che invece è naturale per i bambini. Di qui all’espressione ebete che assumiamo quando ci troviamo davanti una nuova app il passo è brevissimo. Non abbiamo idea di cosa siano quelle tre lineette orizzontali in alto a destra, la freccia a sinistra, i tre pallini collegati, e pazienza. Non sappiamo come si usano, e questo è un po’ peggio. Ma non abbiamo nemmeno idea di a cosa possa servire quella app. Sentiamo che dovremmo fare qualcosa, ma cosa?

Quindi il Digital Divide è solo un caso particolare della incapacità di affrontare con i vecchi strumenti concettuali le nuove tecnologie.

Ma facciamo un altro piccolo passo avanti: le nuove tecnologie non esistono. Sono una categoria psicologica, nel senso che è “nuova” la tecnologia che non c’era quando ci siamo affacciati al mondo delle macchine. Per esempio, per mio padre la radio era una “nuova tecnologia”. Ognuno di noi è portato ad accettare come naturali le tecnologie che esistevano, e guardare con sospetto le altre. Vale per la scrittura, il libro, la televisione, i computer, gli smartphone, la realtà aumentata, etc. Il libro cartaceo è più vero e giusto dell’ebook solo perché c’era nella mia infanzia.

I bambini, ovviamente, non hanno particolari problemi con le nuove tecnologie. E per forza; per loro non sono affatto nuove. Non le vedono nemmeno come tecnologie, sono semplicemente parte dell’ambiente, della natura. Ci sono abituati, non provano nessun’emozione particolare ad usarle; ma questo non è sufficiente perché le capiscano, e nemmeno perché abbiano interesse a capirle.

Radio a galena

Radio a galena

Ci sono delle persone particolari, curiose, che invece per le “nuove” tecnologie non provano ribrezzo immediato, ma le affrontano per capirle. Si domandano da dove vengono, come funzionano. Ci giocano, come farebbero i bambini. Le smontano e le rimontano, le cominciano a usare, se ne impadroniscono (per tornare a mio padre, a distanza di settant’anni mi raccontava con passione di quando aveva costruito la prima radio a galena). Qualche volta ne parlano in maniera entusiasta, come del “nuovo orizzonte” (della didattica, della medicina, etc). Diventano degli apostoli (scusate: degli evangelists), organizzano seminari, scrivono libri.

Quando queste persone sono insegnanti, trasmettono questo atteggiamento positivo, curioso, partecipativo, ai propri studenti. E’ quello che faceva il compianto Seymour Papert, scomparso di recente e mai abbastanza ricordato. L’effetto è che gli studenti – in particolare i più piccoli – non solo si divertono, ma si divertono ad imparare. Si affezionano alla macchina che hanno costruito, ci tengono, le vogliono bene. Riescono a vedere attraverso la macchina la parte che dipende da loro (le idee) e quella che è indipendente (le regole). Probabilmente – ma non è sicuro – manterranno questo atteggiamento positivo e curioso anche in futuro, non si faranno stregare dal canto delle sirene, per ogni nuovo regalo si domanderanno: ma come funziona? cosa c’è dietro?

Quello di questi insegnanti è un atteggiamento fortunato, che purtroppo non dura per sempre, perché negli ultimi cento anni le tecnologie cambiano in fretta. Succede perciò che anche queste persone si ritrovino imbarazzate quando quella tecnologia, con cui pure avevano fatto amicizia, comincia a diventare incomprensibile. Non la riconoscono più, come un cucciolo che è diventato un animale adulto, con personalità e pulsioni che li escludono. La tecnologia buona era quell’altra, quella di prima. C’è un distacco affettivo, oltre che cognitivo. A quel punto anche queste persone fortunate cominciano a parlare di “deriva”, di “usi impropri”, di “evoluzione distorta” eccetera, e si vanno a collocare nella terza schiera: dopo gli apocalittici e gli integrati, i disillusi. Ma non è un fenomeno storico che stanno descrivendo, è il loro (nostro) percorso attraverso la linea del Digital Divide.

Come si evita questo progressivo allontanamento? Non lo so con certezza. Ci si osserva, si studiano i segnali della disillusione. Ci si educa alla tolleranza. Non si smette mai di studiare e di fare, ci si continua a mettere alla prova, ci si fa aiutare da qualcuno più giovane e aggiornato. Personalmente è quello che cerco di fare, con risultati alterni.

Riassumendo: è una buona cosa affezionarsi ad una nuova tecnologia, perché ci mette in una disponibilità mentale tale da permetterci di capirla, ma non è un’acquisizione che dura per sempre. Comunicare questa disposizione agli studenti è una parte fondamentale del compito degli insegnanti. Più importante, secondo me, che insegnare il Computational Thinking.

Nota: quella della lingua del digitale è una questione che un giorno andrebbe studiata per bene. I Disillusi Digitali sono quelli che usano la parola “computer”, e mentre lo fanno pensano che è sinonimo di “calcolatore”. La generazione che attualmente ha in mano il digitale (quelli che oggi hanno trenta-trentacinque anni) non parla di “computer” ma di “device”, intendendo qualsiasi cosa sia connessa a Internet. D’altra parte, all’inizio degli anni ’80 del millennio passato (gli anni dell’Apple II, dell’Atari 400, del Commodore VIC 20 e del PC IBM) non erano nemmeno nati. Non conoscono il significato di “IBM-compatibile” e non vedono cosa c’entri con il loro tablet Android, e in generale non gliene frega nulla dell’etimologia. La lingua, come il digitale, si usa, anche senza capirla.

Elaborazione di testi e fogli di calcolo: ma che palle…

Mag
21

Ieri ultima lezione prima delle presentazioni dei “project work” degli studenti (ovvero dei lavori di gruppo come preesoneri dell’esame). Avevo scelto un tema che  in realtà mi inquietava: elaborazione di testi e fogli di calcolo. Tradotto: Word e Excel. Il resto del corso  è stato sulle reti, i diritti dei cittadini, la privacy, l’accessibilità, e poi avrebbe dovuto toccare mappe, strumenti di collaborazione online, software didattico. Ma mi sentivo in dovere di parlare anche di strumenti che gli studenti di un’Università si suppone che sappiano usare, anche se nessuno gliel’ha insegnato.
Siccome non sono un guru di Word, non conosco a memoria tutte le funzioni di Excel, anzi per la verità non uso nessuno dei dueda quindici anni, mi sono domandato come faccio spesso: qual è la specificità di questa situazione? cosa posso proporre io a  questi studenti di terzo anno, in procinto di laurearsi, che non possano trovare su Youtube o in un libro “Word for Dummies”? Come può aiutarli il fatto che trent’anni fa ho scritto il codice sorgente di un word processor, in Pascal? Qual è il mio valore aggiunto?

Le risposte che mi sono date le elenco qui, magari sono utili a qualcun altro.
1. La storia delle tecnologie della scrittura e del calcolo (supporti, strumenti, conservazione) serve a capire che ci sono modelli d’uso che non si capiscono se non riportandoli alle tecnologie precedenti. Il Caps Lock sulle tastiere dei computer…
2. La storia serve a distinguere gli aspetti davvero nuovi da quelli di re-mediation. Invenzioni, passione. Cosa ha provato il tizio che ha inventato Visicalc, quando non esisteva niente di simile nel mondo? Perché la gente scrive programmi, inventando modi che non esistono di trattare le rappresentazioni del mondo?
3. La storia serve pure a relativizzare la maniera di fare le cose che pensiamo sia unica. La pietra è stata superata dal papiro, dalla pergamena, dalla carta, dal CDROM e dal disco a stato solido. Quando vogliamo lasciare una traccia per gli alieni sulla luna, quale supporto scegliamo? e quale formato?
4. Distinguere alcuni concetti base  può essere util a cavarsela quando le cose non vanno come pensiamo. Usiamo file di cui non sappiamo quasi nulla (chi ha mai aperto un file ODT o DOCX per vedere cosa c’è dentro?) e confondiamo formati, oggetti e supporti. Così a volte siamo bloccati.
5. Word ed Excel non sono solo programmi che fanno cose, sono ambienti dentro cui io posso fare cose. Ambienti che posso usare per scopi diversi. Li posso estendere, adattare, ridurre. Li posso collegare ad altri software. Li posso usare da solo o con altri.
6. Non c’è solo scrivere o mettere numeri, c’è anche – eventualmente, non necessariamente ! – progettare e costruire un testo o gruppo di testi, una matrice o una serie di matrici collegate. Gli artefatti digitali sono flessibili “per loro natura”: si può partire dalla fine e tornare indietro.
7. Ci sono modelli d’uso diversi e obiettivi diversi: risparmiare tempo automatizzando compiti, assicurarsi della validità dei dati, scoprire cose nuove (con le statistiche  o con la risoluzione delle equazioni lineari).
8. Prima dei menù ci sono gli obiettivi. Voglio fare questa cosa: ci saranno una o più strade per farla, me le vado a cercare. Sono ambienti da scoprire un po’ alla volta. Non serve studiare tutto il manuale prima di lanciare Excel.
9. Distinguere i dati dalla struttura di quei dati e dall’interfaccia verso quella struttura è utile, perché permette di fare più cose: strutturare diversamente i dati, applicare interfacce diverse.
10. Non conosco MS Excel 🙁 , ma conosco Libre Office Calc. Ho verificato che in generale gli studenti non sanno nemmeno che esistono alternative.E così non possono scegliere.

Alla fine è questo che ho fatto: ho provato a suggerire visioni allargate, a condividere la mia passione e creare un po’ più di consapevolezza. Tanto peggio per le tabelle pivot e i documenti master, li studieranno un’altra volta.