Digi Tales

Basta coi dati, ancora più dati

Ago
15

Dati come algoritmi: ne parlano tutti, a qualsiasi proposito, a volte anche confondendoli. E si capisce, perché gli algoritmi senza dati girano a vuoto. Si legge e si ascolta sempre più spesso “I dati ci dicono che”, “Andiamo a vedere i dati”, “Ci vogliono nascondere i veri dati”. Ma a forza di citarli come risposta finale a tutte le domande, anche la pubblica amministrazione ha capito che si possono usare a fini di comunicazione.

Dalla sindaca di Roma che traccia le biciclette sulle piste ciclabili al software della sottosegretaria Floridia che “calcola il flusso dei tragitti che gli studenti fanno per venire a scuola”, sembra che la nuova tendenza non sia quella di aumentare l’apertura dei dati esistenti, ma di aumentare i dati raccolti da parte della PA.

Tracciare i movimenti e gli accessi, registrare i dati prodotti da azioni umane, è il nuovo dispositivo che da solo certifica l’approach modern e anche smart di una governance near ai citizens. Prima ancora di dire qual è il progetto generale e come quei dati verranno utilizzati, si annuncia la loro raccolta. Come se questa da sola fosse sufficiente; come se ogni raccolta non contemplasse un filtro e una trasformazione; come se i dati si potessero usare senza archiviarli, con il rischio che qualcuno se ne impadronisca (come è successo più volte).

Sul versante opposto, dopo aver richiesto a gran voce la pubblicazione dei dati del COVID, adesso le voci si alzano contro la registrazione dei dati (per esempio, contro il Green Pass) a volte anche senza sapere esattamente quali dati vengono raccolti, da chi vengono trattati, dove vengono archiviati e per quanto tempo. Cosa dice, esattamente, il QR Code? Anzi: cosa ci nasconde?

L’impressione è che da entrambe le parti ci sia superficialità e che tutto si svolga intorno alla parola “dati” più che intorno al concetto di raccolta di dati. Raccogliere i dati è segno di attenzione al territorio oppure è un furto di identità da parte di un sistema sempre più Grande Fratello?

Dal lato della PA, i proclami sono sempre molto opachi sul come quei dati potranno essere utili a tutti i cittadini, su come verranno protetti ora e i futuro, su quali flussi seguiranno. E’ facile pensare che ogni passo nella direzione del monitoraggio dei cittadini (o degli studenti) possa essere un precedente per altri passi più invasivi. Se un Comune può monitorare i passaggi delle biciclette (che per il momento non hanno una targa, e quindi non possono essere ricondotte ad un proprietario), cosa impedirà domani di costruire un Bicivelox che permetta di aggiungere entrate nella casse del Comune stesso? Se vengono tracciati i percorsi casa-scuola degli studenti, cosa impedisce di farlo anche per i docenti? Eccetera. Sono domande che sorgono spontanee nel momento in cui non c’è la necessaria trasparenza sull’uso di quei dati, sulla base legale, sui limiti non solo tecnici.


L’effetto di questo aumento della presenza dei dati come salvatori o come diabolici si mostrerà presto, a mio parere, in un movimento intellettual/popolare di ribellione all’acquisizione di dati. Un movimento che si presenterà come unito per poi spaccarsi in due ali francamente mosse da interessi diversi.

La parte intellettuale sosterrà che l’acquisizione dei dati (o la trasformazione in dati di azioni) è la nuova forma di creazione di valore a partire dalla vita delle persone. Che sia una processo gestito da grandi soggetti privati o da soggetti pubblici, e indipendentemente dalla finalità, si chiederà che nessun modello di machine learning possa essere addestrato sulla base di comportamenti ad alto valore professionale.

Un caso particolare di questa critica riguarderà i professionisti che vedranno scomparire il loro valore e sul mercato man mano che i dati del loro comportamento professionale saranno accumulati e utilizzati per il training di modelli di Machine Learning. Traduttori, programmatori, giornalisti per primi, poi in futuro docenti, medici, avvocati, architetti si renderanno conto che vanno incontro alla scomparsa come i panda. Anche l’università, e la formazione professionale in generale, si accorgeranno finalmente che rischiano un radicale ridimensionamento.

La parte popolare si limiterà a invocare il diritto all’opacità di ogni cittadino di fronte allo Stato, a difendere una generica libertà individuale. In un’unica rivendicazione verranno inclusi i dati fiscali, quelli produttivi, quelli formativi. Sarà facile per i movimenti politici che già fanno leva su questo tipo di istanze libertarie (nel senso della libertà del singolo individuo) cavalcare anche questa rivendicazione all’interno di un progetto politico liberista che punta a ridurre la presenza dello stato nella società.


Penso che questi movimenti vadano distinti, e le loro motivazioni analizzate con chiarezza. Se è vero che i dati sono il nuovo petrolio, nel senso che l’estrazione dei dati dalle azioni delle persone è la fonte principale di valore, questo valore va rivendicato sempre, soprattutto quando su quella base si costruiscono servizi che vanno a sostituire professioni avviando un percorso senza ritorno di rinuncia alla conoscenza teorica. Ma si tratta di un modo di raccogliere e usare i dati che è proprio primariamente di un numero ristretto di grandissime aziende, e che sta funzionando da modello e attrattore anche per le altre. Questo non ci esime dal cercare di ottenere da queste aziende una forma di autocontrollo; ma possiamo anche cominciare a pensare di usare meno servizi “gratuiti”, cioè pagati con i nostri dati, e usarne di nuovi a pagamento che però diano maggiori garanzie di trasparenza. Piccoli passi che ci aiuterebbero anche ad uscire dal sostanziale monopolio di servizi digitali in cui ci troviamo ora.

Per questo è necessario che la PA sia trasparente per quanto riguarda i percorsi di questi dati: perché anche se i suoi scopi sono diversi, la maniera di raggiungerli potrebbe implicare un passaggio (a costi limitati o addirittura senza costi) proprio per uno o più di questi fornitori di servizi.

Non si tratta tanto di proteggere il diritto del cittadino a nascondere alla PA i propri comportamenti, magari sul bordo dell’illegalità, ma di sancire il diritto di ogni cittadino, nei confronti della propria PA, di sapere cosa viene registrato, a chi viene consegnato e per quali usi, ed eventualmente limitare questi usi, così come si è fatto nel caso dei dati personali dal GDPR. Ma se il GDPR era nato per proteggere le economie dei Paesi europei contro la concorrenza di altri Paesi un po’ più leggeri nella gestione dei dati personali, stavolta si tratta di proteggere i diritti prodotti dai cittadini stessi, che non sono dati personali ma appartengono comunque alla sfera del valore e non solo a quella della tecnica.

Come per quanto riguarda i dati personali, la via più facile sarebbe quella di anonimizzare i dati, in modo che non sia possibile risalire al cittadino da cui sono stati prodotti. Purtroppo è una strada scivolosa e difficile. Facciamo un esempio: l’anonimizzazione può essere applicata per default oppure solo su richiesta del cittadino.

Nel primo caso, siccome i dati hanno senso soprattutto quando vengono incrociati, bisogna costruire un cittadino-doppio, un avatar anonimo su cui convergano tutti i dati raccolti. Questo doppio, identificato da un codice univoco all’interno della PA, non potrebbe davvero perdere il legame con il cittadino reale, altrimenti non sarebbe più possibile collegare i nuovi dati raccolti a quelli precedenti. Quindi il problema si sposta semplicemente dai dati al codice, dal tesoro alla chiave.

Nel secondo caso, quello di un’anonimizzazione su richiesta esplicita da parte dei cittadino, sorge il problema della propagazione a catena dell’anonimizzazione su tutte le repliche dei dati. Senza un protocollo che impone di tenere traccia di ogni replica, di ogni accesso in copia, sarebbe evidentemente impossibile assicurare il cittadino che tutte le copie sono state anonimizzate.

Insomma, in pratica i dati prodotti da un cittadino e quelli identificativi del cittadino restano connessi. E di qui il problema.


Spesso si dice che siccome le persone hanno già ceduto la maggior parte dei propri dati ad aziende private (l’uso della carta di credito, l’uso del telefono, gli spostamenti fisici, la navigazione web e in generale l’uso di servizi via Internet, i propri interessi e preferenze, la propria rubrica) non ha senso preoccuparsi dei dati forniti alla PA. E’ il tipo di critica che si riceve quando si parla di protezione dei dati all’interno di un social network. Fa venire in mente lo scrutatore non votante che “si fa la doccia dieci volte ma ha le formiche sulla tavola”.

Credo invece che i discorsi vadano tenuti separati. Da una parte è possibile, anche se difficile, condurre una vita senza cedere i propri dati ad aziende private, nel momento in cui si riesce a rinunciare ai servizi, a pagamento o gratuiti che siano, che queste offrono in cambio dei dati stessi. Si può vivere senza usare Google Maps, senza Gmail, senza Android, senza Windows e naturalmente senza social network centralizzati. Si possono cercare alternative, gratuite o a pagamento. Si possono fornire dati imprecisi, contraddittori o parziali.

Ma non si può vivere senza carta di identità, senza pagare le tasse, senza un fascicolo sanitario. In un caso c’è un contratto esplicito, accettato, che prevede uno scambio più o meno trasparente di dati contro servizi. Nell’altro caso, il contratto tra la persona e lo stato inizialmente non viene nemmeno firmato dalla persona, ma dai genitori al momento dell’iscrizione all’anagrafe. Quel contratto non specifica cosa lo stato possa fare in seguito con i dati del cittadino, ma fa riferimento alla Costituzione, alle Leggi statali e regionali. Da quel contratto si può uscire veramente solo rifiutando del tutto ogni nazionalità, o scegliendone una diversa.

Per questo è importante che la PA sia in grado di esporre un protocollo di raccolta dei dati che sia chiaro, inattaccabile, funzionale.


Una delle situazioni in cui questo problema potrebbe presentarsi improvvisamente (anche se le premesse sono presenti da anni) è quello della raccolta dei dati nella piattaforme di DaD, o di e-learning. Il tracciamento del comportamento degli studenti (non solo i voti o gli accessi, ma la navigazione fine, la consultazione dei link e degli allegati, la scrittura di testi, la comunicazione orizzontale) può essere più o meno spinto, e può essere più o meno usato a vantaggio degli studenti stessi, per esempio per arricchire la valutazione con dati che descrivono il comportamento degli studenti (o di un gruppo di studenti) in tempo reale, senza bisogno di aspettare il momento del test. Dati che permettono di confrontare quello che sta succedendo con quello che, in situazioni simili, ci si attende che succeda. Lo stesso potrebbe succedere, a breve, relativamente alla registrazione dei dati dei docenti: accessi, comunicazione con gli studenti, creazione di contenuti aggiuntivi, valutazione.

Da un lato è evidente che questi dati potrebbero essere usati per aiutare i docenti e i corsisti, o anche gli autori di contenuti, o i progettisti delle piattaforme; dall’altro, questi dati potrebbero essere usati per selezionare gli studenti ancora prima del termine del loro corso di formazione (come nel caso di alcuni MOOC), oppure per controllare il lavoro dei docenti e sanzionarne comportamenti inadeguati. O infine, e qui torniamo a quanto detto sopra, per costruire un modello di docente che sia in grado di fare lezione, correggere gli esercizi, assegnare voti.

Anche in questo caso occorrerebbe sbrigarsi a regolamentare cosa può essere raccolto, con che finalità, per quanto tempo.

Alcune ipotesi di lavoro.

1. Si può chiedere ad una PA di fornire un bilancio tra i servizi forniti grazie all’acquisizione di dati dei cittadini e la necessaria sottrazione di privacy dei cittadini stessi. Ci saranno casi in cui i vantaggi superano gli svantaggi, ed altri in cui l’acquisizione di dati non è giustificabile. Un bilancio che dovrebbe essere pubblico, facilmente leggibile dal maggior numero di cittadini, aggiornato frequentemente.

2. Si può chiedere ai poteri legislativi di stabilire, una volta per tutte, che i dati prodotti dalle azioni dei cittadini (come quelli che ne definiscono l’identità) vengano riconosciuti come di proprietà dei cittadini stessi. Non è un passo semplice, perché i dati non sono oggetti fisici che una volta ceduti non sono più di proprietà del precedente proprietario. I dati di cui parliamo non hanno nemmeno le caratteristiche dei prodotti dell’ingegno, che devono essere originali. Un’altra difficoltà deriva dal fatto che questa richiesta potrebbe andare in direzione opposta, almeno apparentemente, a quella dell’apertura dei dati pubblici. Andrebbe applicata una licenza permissiva ma con caratteristiche speciali: per esempio, dovrebbe essere possibile tracciare l’uso dei dati e rendere possibile la propagazione del blocco del loro utilizzo.

3. Questa legge dovrebbe anche stabilire che il trattamento di quei dati deve avere come finalità primaria il vantaggio dei cittadini e non del sistema organizzativo. I cittadini, attraverso i loro dati, dovrebbero sempre essere considerati un fine e mai un mezzo, come reciterebbe la versione moderna del principio regolativo kantiano.

Quali cittadini? Solo quelli a cui appartengono i dati, o tutti? E’ evidente che scienze come l’epidemiologia hanno bisogno dei dati di tutta la popolazione per provare a fare ipotesi significative.
Insomma, i principi non bastano, ci vuole ancora tanto lavoro. Ma sarebbe ora di iniziare a farlo.

Monitoraggio, brutta parola

Ott
09
Sul sito Programma il Futuro sono scaricabili dei report sui dati sulle attività svolte nel primo (http://programmailfuturo.it/media/docs/Rapporto-monitoraggio-settembre-2014-gennaio-2015.pdf) e nel secondo anno di progetto (http://programmailfuturo.it/media/docs/evento-celebrativo/programma_futuro-MIUR-26mag2015.pdf). Numero di ore, numero di insegnanti per regione e per disciplina, numero di classi e studenti coinvolti, e poi gradimento, valutazioni, osservazioni, tutti corredati di grafici. Dati raccolti in parte grazie a Google Analytics (altrimenti perché si attiva ogni volta che apro una pagina in Code.org?) e in parte grazie a questionari.
Questa cosa mi solletica.
Dieci anni fa, quando lavoravo a Scienze della Comunicazione, ho fatto una ricerca sui forum del corso concorso per dirigenti scolastici di INDIRE (2006). Siccome la piattaforma usata non prevedeva nessun tipo di monitoraggio fine (e peraltro non esisteva più…), siamo partiti da una copia del DB Oracle e siamo riusciti a ricostruire i profili, le conversazioni, i temi, le modalità comunicative. Il risultato principale è stato forse però l’insieme di query SQL che avrebbero permesso di analizzare allo stesso modo i dati di altri forum che usavano la stessa struttura dati, ad esempio per vedere se c’erano invarianti legate alla dimensione geografica, all’età, alle esperienze pregresse. Non mi risulta che siano stati mai usati, ma pazienza.
Cinque anni dopo, il MIUR ci affidò una ricerca per valutare il risultato di tre piani di formazione nazionali. La cosa anche qui fu piuttosto difficile, perché non c’erano dati originali, ovvero il progetto delle attività non contemplava la raccolta di dati prima, durante e dopo. Sono stati analizzati fondamentalmente i risultati di questionari somministrati ai docenti. Il che come si può immaginare non è la stessa cosa di avere accesso alle informazioni primarie.
Nella recente formazione per gli Animatori Digitali del Lazio, che mi ha coinvolto solo come tecnico fornitore di piattaforme, ho proposto di impostare un piano di monitoraggio all’inizio delle attività. Non per valutare nessuno, ma perché quando domani qualcuno arriverà a chiedersi se e come ha funzionato avrà bisogno di qualche informazione in più rispetto ad un sondaggio finale.
 
Insomma la fatica per ottenere dei risultati di qualche qualità mi pare inversamente proporzionale alla lungimiranza di chi gestisce un progetto. Se poi i dati raccolti (naturalmente anonimizzati) venissero resi disponibili come opendata (oltre alle elaborazioni in PDF), si potrebbe lasciare a chi ne ha voglia e competenze il compito di far emergere qualche idea buona (qui ho esagerato, vabbè).
 
Se ogni attività di coding fosse preceduta da una raccolta di informazioni (chi è il docente, che competenze ha, che lavori sono stati fatti con quella classe in precedenza) e magari da un test di ingresso, se durante le ore di coding si potesse registrare lo scambio tra gli studenti e con il docente o il processo di acquisizione di nuove forme sintattiche, se le attività fossero seguite da un test finale, se se se… ci sarebbero alla fine dati su cui riflettere. Anche senza avere per forza la pretesa di dimostrare che il coding serve (o non serve) ad un obiettivo specifico.
Magari verrebbero fuori delle connessioni a cui non si era pensato. Per esempio, l’influenza della famiglia o dell”ambiente sociale, o della lingua materna; il peso delle competenze informatiche del docente (o delle dimensioni dello schermo, o del tempo atmosferico, o del segno zodiacale del docente, o che so io). O magari non viene fuori niente. Ma senza quei dati non si saprà mai. Non mi sto inventando i Learning Analytics: se ne occupa tanta gente, la Microsoft nell’accordo con il Ministero dell’Educazione Nazionale Francese ha specificato che il suo intervento sul coding prevede anche questo tipo di attività di monitoraggio e analisi dei dati (http://cache.media.education.gouv.fr/file/Partenaires/17/7/convention_signee_506177.pdf, pag 4). Se lo fa Microsoft, a qualcosa servirà, no?
 
Quello che voglio dire non è tanto che ci deve essere un quiz alla fine che ci permetterà di dire se Mario ha imparato il pensiero computazionale (o uno strumento di analisi degli elaborati come DrScratch, http://drscratch.org/, – grazie Massimo per la segnalazione – che pure potrebbe essere utile); ma che una Piano Nazionale dovrebbe dotarsi dall’inizio di un protocollo e di strumenti per valutare la qualità di quello che fa, e non solo la quantità e le opinioni. Se Google ha costruito la sua fortuna sull’analisi dei testi e dei comportamenti della popolazione mondiale, ci sarà pure una ragione. Che, nel nostro caso, non è poter vendere pubblicità e servizi mirati, ma valutare globalmente un piano nazionale (non il coding), e per una volta non a posteriori.
E’ un suggerimento per il terzo anno…

Platone, Stallman e gli OpenData

Gen
24

Reale contro virtuale, verità contro finzione, rapporto fisico contro relazione mediata: sono solo alcune delle opposizioni che vengono usate per descrivere una situazione critica, in cui c’è chi difende la posizione raggiunta e c’è chi profetizza futuri di democrazia totale. Una versione recente: didattica vera (in presenza) contro didattica digitale (a distanza).

Dietro queste opposizioni c’è, a mio parere, un processo continuo, che dura da tremila anni, di cristallizzazione delle competenze in oggetti per sostituire la mediazione diretta tra persone.
Il primo a descriverlo è Platone, ma Stallman (quello che ha inventato GNU Linux e il software libero) parla delle stesse cose con un linguaggio un po’ diverso. E se un giorno tutte le conoscenze fossero racchiuse in oggetti fatti di bit, potremmo fare a meno della scuola?

A. Oralità e scrittura.

Platone, alla fine del dialogo dedicato a Fedro, mette in scena un dialogo tra il faraone Thamus e l’inventore tuttofare Theuth. Theuth è una specie di Melquíades, che arriva a Macondo con trucchi e invenzioni nuove e le presenta ai Buendía. Ma quando presenta la sua ultima, mirabolante scoperta (cioè la scrittura), ci resta malissimo: Thamus non la vuole. Anzi la critica duramente per i suoi effetti negativi sull’esercizio della memoria (vedi calcolatrici etc) e perché la fissazione della conoscenza su di un supporto tramite un sistema di segni la rende appunto indipendente dal rapporto tra insegnante e discente (“divenuti , infatti , grazie a te , ascoltatori di molte cose senza bisogno di insegnamento”) e perché produce una falsa consapevolezza di conoscenza (“saccenti invece che sapienti”).
Più avanti nel dialogo: il testo (come discorso scritto) sembra abbia una propria vita, ma in realtà (a) ripete sempre la stessa cosa, e (b) a tutti indistintamente. Non solo quindi è noioso, ma non sa distinguere chi può capire e chi no e non è in grado di adattarsi a destinatari diversi. Il testo scritto non può differenziarsi e rivolgere “a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”.
Infine, il testo scritto non si può difendere da sé, ma ha sempre bisogno dell’autore che gli porti aiuto, cioè che risponda alle obiezioni precisando ciò che era generico, espandendo ciò che era solo accennato, chiarendo ciò che era oscuro. In sostanza, il discorso scritto è quel discorso; il discorso orale è una matrice di possibili discorsi.
Il discorso scritto, il testo, non è però inutile, perché può riaccendere quello orale: funziona come supporto alla memoria di chi l’ha scritto, dice Thamus, ma non sostituisce quello orale, e non può servire come veicolo per l’insegnamento senza l’insegnante. Anzi, rischia di produrre discenti che credono di sapere ma non hanno veramente capito.
Il vero discorso è quello orale; non tanto perché rappresenta fedelmente la realtà (che sono le idee), ma perché è vivo, produce altri discorsi, figli e fratelli di quello, nella mente degli ascoltatori.
Spetta al filosofo il compito di mediare tra le idee e l’anima del discente tramite appunto il discorso orale. Il punto chiave dell’argomentazione non è tanto il tipo di supporto del discorso (orale o scritto, analogico o digitale) ma il fatto che sono necessarie competenze specifiche per questa mediazione: conoscenze dei rapporti tra le idee (dialettica) e del livello di competenza raggiunto dal discente. Queste competenze permettono al filosofo di adattare il suo discorso e a mettere il discente in contatto con le idee. Sono almeno di due tipi: quelle relative al dominio e quelle relative al destinatario. Queste ultime, a loro volta, sembrano essere composte dalle competenze necessarie per la valutazione delle capacità del discente e dalle competenze necessarie per ripensare gli argomenti, il loro ordine e la loro esposizione in funzione di quelle capacità.

Il libro sta al discorso come la pittura sta alla natura (e nel futuro che per noi è passato, come il disco sta al concerto e il cinema al teatro). Ma a Platone interessa solo la parola, il discorso che serve a convincere e a insegnare la verità. Un’intera classe, quella dei filosofi, è il corrispettivo sul piano sociale, è la garanzia che non sia sempre di nuovo necessario per ogni individuo riscoprire personalmente (tramite la reminiscenza) la verità.

B. L’era della riproducibilità tecnica
Il testo scritto come conoscenza cristallizzata, fissata nel tempo ma mobile nello spazio (ovvero distribuita senza il suo autore), è un oggetto anticipato da Platone ma reso veramente possibile con la stampa, che di quella prima copia permette infinite copie.
Con il testo scritto, il lavoro dell’insegnante viene reso non più indispensabile; l’esistenza delle oggettivazioni della conoscenza gli fanno perdere valore. Anche a prescindere dalla facilità con cui il testo viene riprodotto in copie e viene distribuito nel mondo, e dal costo di questa operazione, si può apprendere anche senza un insegnante, purché naturalmente si sappia leggere (in tutti i significati di questo termine).
Duemilatrecento anni dopo, è la critica luddista ai telai meccanici e all’organizzazione del lavoro che rende gli operai inutili o quantomeno asserviti alle macchine.
Tuttavia storicamente con la diffusione del testo scritto (e la riduzione dell’importanza dell’insegnamento orale?) nascono altri lavori: il lavoro dello scrittore, dell’editore, del distributore di libri, fino al bibliotecario. Lavori che implicano nuove competenze, che a loro volta diventano oggetto di formazione.
La cristallizzazione non è definitiva e non funziona mai completamente. Platone osserva che il discorso scritto non si può difendere da sé; i testi singoli non possono essere usati da tutti nella loro forma originaria, vanno commentati, raccolti, tradotti.
Inoltre il lavoro di insegnante non scompare, ma si trasforma, e questo Platone lo intuisce. Nascono nuove figure di “insegnante”, non più autosufficienti, ma che da un lato “spiegano” i libri (Platone dice che gli “portano aiuto”), dall’altro li utilizzano come supporti temporanei. I nuovi docenti forniscono le meta-informazioni che consentono di capire i testi, e dall’altro il loro stesso discorso non deve essere completo, ma può sintetizzare, rimandare ad altro per gli approfondimenti. Il discorso non deve più essere unitario e autosufficiente, può essere parziale, specialistico.
C’è un altro aspetto importante: le conoscenza cristallizzate non sono davvero accessibili come il discorso orale. Intanto per accedere alla conoscenza cristallizzata bisogna saperla estrarre, il che nella nostra cultura significa “leggere”, e almeno questa competenza alfabetica deve essere insegnata direttamente.
Ma non basta. Anche i testi sacri rivolti a tutti, come la Bibbia e il Corano, hanno bisogno di essere tradotti e interpretati da esperti (almeno, secondo alcune delle religioni che si appoggiano su di essi). Il docente/interprete è riconosciuto necessario ovunque, e di nuovo stimato.
Con un salto di secoli arriviamo a oggi e all’informatica, e ritroviamo una situazione molto simile. I programmi sono la quintessenza della macchina: nati per sostituire l’uomo nei lavori più ripetitivi, di fatto hanno reso inutile certe competenze, mandato in cantina certe macchine (da quella per scrivere alla calcolatrice e al registratore analogico) e mandato a casa professionisti (dal tipografo al contabile). Ma sono anche nati una serie di nuovi mestieri: analisti, programmatori, data scientists, infografici etc.

C. Il web 2.0 (e ti pareva)
Il processo di cristallizzazione non si ferma, legato com’è alla democratizzazione della cultura e dell’educazione; o se si vuole alla competizione per la sopravvivenza tra mestieri. I testi singoli vengono cristallizzati ad un livello superiore, inclusi in commentari, in sillogi, e infine in un’enciclopedia, che contiene non solo le informazioni ma anche le metainformazioni che consentono di usare le prime correttamente. L’illuminismo elimina la necessità anche degli insegnanti e delle scuole: ognuno può apprendere da solo, come Pippi Calzelunghe che imparava leggendo il dizionario in ordine alfabetico.
Non è diversa Wikipedia. WP punta ad essere la cristallizzazione di tutto il sapere umano; in questo modo rende inutili i manuali divulgativi, i dizionari, e –  con Wikivoyage – anche le guide turistiche.
Tutto l’uso del web 2.0 come sistema di scavalcamento dell’esperto (critico o docente, vedi F. Antinucci, “L’algoritmo al potere. Vita quotodiana al tempo di Google”, Laterza, 2009) poggia, almeno in parte, sull’idea di congelare giudizi che valgono indipendentemente dalla credibilità riconosciuta del loro autore; o anche, sostituiscono l’attribuzione di attendibilità accademica tradizionale con un sistema di valutazione dal basso, basato sul gradimento del prodotto da parte dei molti, anziché sulla valutazione dell’autore.
Tuttavia è chiaro che più aumenta la mole dei dati, più servono competenze nuove per filtrarli, selezionarli, renderli adatti all’utente. Competenze nel progettare motori di ricerca o strumenti per il mash-up intelligente che tengono conto del profilo dell’utente (“a un’anima complessa discorsi complessi e dai molteplici toni , a un’anima semplice discorsi semplici”).

D. Opensource/data
Il free software/opensource è una risposta consapevole a questo processo storico.
Stallman dice che il valore sta dalla parte del programmatore, non del programma. E’ il programmatore che crea e soprattutto (dopo una certa fase in cui esiste una massa critica di codice sorgente) lo corregge, migliora e personalizza. Se il programma è una cristallizzazione di competenze, il programmatore media tra il programma e i bisogni degli utilizzatori. Il fatto che le funzioni vengano raccolte in librerie, che si producano linguaggi di alto livello e ambienti di sviluppo integrati risponde a questa necessità, ma non cancella il ruolo dei programmatori.
La differenza qui non è quella che spesso viene percepita (o presentata) come essenziale, cioè la gratuità del software. A prescindere dagli slogan, se il software fosse tutto gratuito, e non ci fossero altre fonti di reddito, i programmatori non sopravviverebbero, e tutto si fermerebbe. Questo però non significa necessariamente che le licenze del software vadano vendute; ci possono essere modi alternativi di finanziare il lavoro dei programmatori, più o meno trasparenti: dal contributo allo sviluppo del software più promettente (come fa ad esempio Google nelle sue summer schools, o come accade negli app contest), al pagamento delle personalizzazioni e miglioramenti. Non può essere pagato solo lo sviluppo del software più commercialmente appetibile: oggi il software è essenziale per far funzionare anche settori al di fuori del business, come l’educazione o la sanità. Ma è vero che la gratuità sposta il problema dall’accesso alla selezione.
Il punto è che se i codici sorgenti sono aperti, ci sarà sempre spazio per il lavoro di programmatori, sempre più competenti, ma anche per consulenti esperti in grado di consigliare la soluzione più adatta.

E lo stesso discorso vale per gli opendata, che rappresentano in qualche modo il punto di arrivo di un progetto di democratizzazione delle conoscenze: tutte le conoscenze in possesso della PA – quindi oggettive, controllate, ufficiali – finalmente a disposizione di tutti.
Gli opendata sono informazioni (non opinioni), cristallizzate in modo da poter essere usate da chiunque, senza che sia necessario rivolgersi agli esperti, agli uffici etc. Sono informazioni pubbliche, dunque (a)non si devono pagare (b)devono essere accessibili direttamente da tutti. Ma non necessariamente sono comprensibili e usabili da tutti nella loro forma originaria. Servono altri esperti, che

  • interpretano i dati e creano LOD (Linked Open Data, informazioni che contengono il link ai significati standard dei termini che usano)
  • progettano e sviluppano apps che “consumano” i dati e li presentano in maniera comprensibile a tutti
  • permettono ricerche tra i dataset e i repository di tutto il mondo
  • ne inventano nuove applicazioni al di fuori di quelle già esistenti.

Man mano che i dataset aumentano, servono esperti che valutano i dati, li correggono. E’ già evidente oggi per i dati geografici e lo sarà a breve per quelli meterologici. Il problema non è più ottenere i dati, ma selezionarli, collegarli e presentarli nella maniera più utile e comprensibile.
La vera differenza tra open e closed è che quando il codice (o la struttura dei dati) è aperto chiunque abbia le competenze necessarie può fungere da interprete, ed è possibile scegliere l’interprete migliore. Se è chiuso, non c’è più scelta né controllo pubblico.

E. Conclusioni
Ogni cristallizzazione del sapere  minaccia l’esistenza di una serie di figure professionali che diventano inutili. E ogni volta nascono nuovi “mestieri della cristallizzazione”; e ogni volta si rende necessaria una nuova mediazione tra gli oggetti cristallizzati e i discenti.
Il processo ha forma di spirale, si ripete nel tempo. Ogni volta c’è un oggetto di tipo nuovo che rappresenta delle competenze che possono essere apprese senza la mediazione dell’esperto.
Ogni volta, quelli che appartengono alle figura professionali a rischio (i filosofi, gli operai, i programmatori) si difendono, presentando l’oggetto originale di cui sono mediatori riconosciuti come “la realtà vera”, e il nuovo oggetto cristallizzato come una sua versione limitata, impropria, pericolosa, etc. E quindi c’è chi difende il libro e il cinema contro l’ebook e YouTube.

“Dati gratis per tutti” significa che qualcuno perde il suo lavoro, e questo è un aspetto che forse non è sempre presente a chi saluta i proclami opendata con entusiasmo.
Ma significa anche che nasce un nuovo di tipo di lavoro – o che potrebbe nascere, a certe condizioni.
I timori luddisti sono giustificati – nel senso che si tratta di un processo inevitabile, che continuerà a ripetersi. Però il processo intero può essere visto non solo come una minaccia ai mestieri esistenti, ma anche come una trasformazione delle competenze, che devono sempre di più tener conto dell’utente finale oltre che del dominio.
Avere consapevolezza del processo significa non averne paura, dare valore a queste competenze miste, svilupparle.
Viceversa limitarsi a dichiarare di voler digitalizzare il mondo è un modo demagogico di crearsi consenso senza poi fornire le condizioni perché questo mondo digitale possa davvero sostenersi.