Digi Tales

Strumenti digitali usati analogicamente

Set
05

Mi sono reso conto improvvisamente (eh sì) che la mia maniera di pensare la “didattica digitale” è spesso lontana da quella di molti che in teoria dovrebbero essere dalla mia stessa parte, la parte di quelli che studiano, sperimentano e propongono agli altri attraverso corsi, libri, seminari e sogni vari. Ci troviamo vicini, ci salutiamo cortesemente, sembra che vogliamo camminare nella stessa direzione, poi improvvisamente c’è un’interruzione di questa comunità di intenti. Forse ho capito perché.

Gli strumenti digitali sono tanti, diversi, e si possono usare in tanti modi diversi. Già per questo parlare di “innovatività del digitale”, o di “didattica digitale” è un po’ generico e ingenuo. Certi strumenti digitali si possono usare per creare strutture nuove, o per replicare modelli esistenti. Si possono usare in maniera ingenua, come se fossero funzioni naturali, date ad Adamo una volta per tutte; oppure si possono esaminare, scegliere, usare magari lo stesso ma sapendo chi li ha costruite e perché.
Soprattutto, si possono usare strumenti digitali come se fossero analogici, all’interno di strutture di pensiero tradizionali; oppure capire come funzionano e sfruttarne le caratteristiche più proprie.
Detto in altro modo: ci sono tante dimensioni lungo le quali si può immaginare e valutare l’uso degli strumenti digitali:

  • consapevole/ingenuo
  • creativo/fedele al modello
  • individuale/collettivo
  • fruitivo/produttivo

    ma quella fondamentale per me resta:
  • digitale/analogico

Dimensione paradossale, in cui il termine che sembra lapalissiano (“uso digitale di uno strumento digitale”) è in realtà la descrizione di un uso del digitale consapevole delle differenze e delle opportunità che offre rispetto al corrispondente analogico; mentre il contrario, cioè “l’uso analogico del digitale” è la descrizione di un uso veloce, superficiale, attento agli obbiettivi immediati, quelli che si possono definire a priori, indipendentemente dalle tecnologie scelte e usate.

Anni fa avevo provato a descrivere alcune delle caratteristiche del digitale. Sbagliando, credevo di parlare del “digitale in sé”, mentre stavo parlando proprio di questa differenza.
Scrivevo che il digitale è inerentemente flessibile, plurale, virtuale, omogeneo. Ognuno di questi aggettivi era un modo di descrivere delle operazioni possibili sugli oggetti digitali e non sui corrispettivi analogici: modificare all’infinito, modificare a più mani, tradurre e reinterpretare da un campo mediale all’altro, eccetera. Queste possibilità derivavano sia dal fatto che alla base c’erano bit, cioè forma e non materia, sia dal fatto che i dispositivi digitali si possono programmare per fare cose non previste, non contenute nell’orizzonte presente.

(La parte seguente può essere saltata da chi si è già interessato alla storia dei media e ha già riflettuto recentemente su questi temi, cioè immagino tutti. In questo caso, può saltare direttamente a leggere la Conclusione ).


1. Gli strumenti digitali nascono per la quasi totalità come rimediazioni di quelli analogici, come scrivono Bolter e Grusin, in un processo che non è una sostituzione netta, e in cui non è subito ovvio se e quando il doppio digitale prenderà il posto di quello analogico.
La coppia pc-wordprocessor, ad esempio, è una versione digitale della macchina da scrivere. Serve a fare le stesse cose, ma inizialmente costa anche di più, è più difficile da usare, richiede un apprendimento specifico; però presenta dei vantaggi: carta infinita, cambio di font, dimensioni variabili eccetera eccetera. Talmente vantaggi che le macchine da scrivere oggi sono scomparse.

Gli orologi analogici invece no, almeno quelli di altissima gamma. Come le carrozze a cavalli sono quasi scomparse, tranne per i matrimoni e per fare il giro del Colosseo. La versione digitale costa poco ed è per tutti, quella analogica per pochi. Potrebbe essere il destino dell’educazione analoagica (umana o cartacea), quella di essere riservata ai ricchi; ma passiamo oltre.
A volte sono quasi indistinguibili, come nel caso delle macchine fotografiche reflex o delle videocamere. Una reflex digitale assomiglia fisicamente ad una analogica, anche se pesa un po’ meno, e fa esattamente la stessa cosa. Solo che non ha bisogno di pellicola, perché la luce viene tradotta in bit prima di essere registrata su una scheda a stato solido, ma questo è del tutto trasparente per l’utente, il quale francamente se ne infischia.
All’estremo opposto, alcuni strumenti digitali sono apparentemente molto diversi da quelli analogici che intendono sostituire; o meglio, fanno astrazione dalla materia e dal corpo (che poi è proprio quello che fa meglio il digitale: rende generico l’hardware). Hanno in comune con quelli analogici solo l’interfaccia, il modello d’uso e lo scopo: un software di editing video assomiglia ad una centralina video ma è un software che gira in un PC qualsiasi, non ha bisogno di un macchina specializzata, non occupa spazio e si può aggiornare facilmente. Costa quasi lo stesso, è vero, ma si può copiare o accontentarsi della versione “open”.

In tutti questi casi, chi ha utilizzato prima gli strumenti analogici e poi quelli digitali ha (o meglio potrebbe avere) la percezione delle differenze, dei minus (“Ah, la qualità degli amplificatori a valvole…”) e dei plus (“Uh che sbadato! Va beh, Ctrl-Z”) che derivano dal fatto che i dati vengono creati filtrando e numerizzando segnali, e che una volta costituiti in forma digitale possono essere trasformati, copiati, inviati all’infinito, senza nessuna perdita. I più anziani, fortunati, o ricchi, possono permettersi di scegliere tra la versione analogica e quella digitale. In ogni caso, per quel poco o tanto di tecnica che conoscono, sanno che dentro il corpo macchina ci sono cose molto diverse.

Chi ha usato solo gli strumenti digitali invece li considera semplicemente gli strumenti disponibili oggi per ottenere certi risultati. Non confronta con nulla, non conosce la storia, non riconosce nel nuovo il vecchio – non sa perché sulle tastiere dei PC esiste un tasto per bloccare il maiuscolo che però non funziona con i tasti che presentano numeri e simboli insieme. Niente di male, intendiamoci: non bisogna per forza aver scritto con una penna d’oca per apprezzare le qualità della Bic. Ma per loro la Bic è lo strumento della scrittura, e non ce ne sono né possono essere altri. Soprattutto, non fanno attenzione al processo sottostante, non sono interessati al funzionamento.

2. C’è una seconda classe di strumenti, che nascono come doppi digitali di uno strumento analogico ma poi si trasformano in altro. E’ il caso del telefono, per spiegare l’evoluzione del quale non c’è bisogno di tante parole. In questo caso, una volta raggiunto l’obiettivo di simulare il comportamento dello strumento target (il telefono analogico) ci si è trovati tra le mani un oggetto talmente potente da poter essere usato come di altre pratiche (fare fotografie, registrare audio) e come terminale di servizi internet (navigare nel web, comunicare). Questo doppio o triplo uso per un certo periodo lascia interdetti gli utenti più vecchi, che continuano a usare uno smartphone come un telefono, mentre è perfettamente compreso dai nuovi utenti, che a limite non lo usano mai per telefonare, ma che importa? Non è un caso: è che essendo l’hardware (e il sistema operativo) dei supporti generici, quello che ci si fa sopra è praticamente illimitato. Una volta fatto lo sforzo di convincere le persone ad avere tra le mani un coso digitale, il più e fatto e da lì si può far passare tutto.

3. Infine ci sono gli strumenti totalmente digitali, nati digitali, senza nessuna corrispondenza analogica. Sono rari perché per affermarsi devono poggiare su concetti completamente nuovi. Il foglio di calcolo è uno di questi: non assomiglia veramente a nulla, non potenzia un foglio di carta a quadretti ma fa cose diverse (sostituisce la mente nei calcoli, e lo fa continuamente). Questi strumenti si basano su una caratteristica unica che gli deriva dall’essere, tutti, al fondo, dei computer: la possibilità di essere programmati. Che non significa : programmati per fare una cosa. Gli strumenti analogici si possono configurare, se ne possono variare i parametri; ma non si possono programmare, nel senso di stabilire comportamenti diversi in base a situazioni differenti. Uno strumento digitale è capace di scegliere come comportarsi sulla base di uno schema di situazione che può essere molto complesso e che si chiama “programma”.


Conclusione

Arriviamo al punto: i doppi digitali si possono anche usare limitandosi alle funzioni che erano possibili coi i loro antesignani analogici. Ma i risultati più ricchi, soddisfacenti, soprattutto per quanto riguarda l’educazione, si hanno quando se ne sfruttano le caratteristiche intrinseche, quelle che poggiano sul loro trattare dati digitali (flessibili, molteplici, omogenei…) e di poter essere programmati. Quando oltre ad usarli in maniera critica, creativa, in gruppo, per produrre artefatti eccetera eccetera si sfrutta il fatto che in questo particolare universo le lettere si possono trasformare in suoni, e i numeri in disegni; che le storie si possono rendere vive e le mappe navigabili, allora li si usa in maniera davvero educativa.
Ecco perché usare strumenti (o servizi) digitali all’interno di un framework educativo analogico mi pare riduttivo.
Ed ecco quello che mi separa da tanti educatori digitali “innovativi”.

Basta coi dati, ancora più dati

Ago
15

Dati come algoritmi: ne parlano tutti, a qualsiasi proposito, a volte anche confondendoli. E si capisce, perché gli algoritmi senza dati girano a vuoto. Si legge e si ascolta sempre più spesso “I dati ci dicono che”, “Andiamo a vedere i dati”, “Ci vogliono nascondere i veri dati”. Ma a forza di citarli come risposta finale a tutte le domande, anche la pubblica amministrazione ha capito che si possono usare a fini di comunicazione.

Dalla sindaca di Roma che traccia le biciclette sulle piste ciclabili al software della sottosegretaria Floridia che “calcola il flusso dei tragitti che gli studenti fanno per venire a scuola”, sembra che la nuova tendenza non sia quella di aumentare l’apertura dei dati esistenti, ma di aumentare i dati raccolti da parte della PA.

Tracciare i movimenti e gli accessi, registrare i dati prodotti da azioni umane, è il nuovo dispositivo che da solo certifica l’approach modern e anche smart di una governance near ai citizens. Prima ancora di dire qual è il progetto generale e come quei dati verranno utilizzati, si annuncia la loro raccolta. Come se questa da sola fosse sufficiente; come se ogni raccolta non contemplasse un filtro e una trasformazione; come se i dati si potessero usare senza archiviarli, con il rischio che qualcuno se ne impadronisca (come è successo più volte).

Sul versante opposto, dopo aver richiesto a gran voce la pubblicazione dei dati del COVID, adesso le voci si alzano contro la registrazione dei dati (per esempio, contro il Green Pass) a volte anche senza sapere esattamente quali dati vengono raccolti, da chi vengono trattati, dove vengono archiviati e per quanto tempo. Cosa dice, esattamente, il QR Code? Anzi: cosa ci nasconde?

L’impressione è che da entrambe le parti ci sia superficialità e che tutto si svolga intorno alla parola “dati” più che intorno al concetto di raccolta di dati. Raccogliere i dati è segno di attenzione al territorio oppure è un furto di identità da parte di un sistema sempre più Grande Fratello?

Dal lato della PA, i proclami sono sempre molto opachi sul come quei dati potranno essere utili a tutti i cittadini, su come verranno protetti ora e i futuro, su quali flussi seguiranno. E’ facile pensare che ogni passo nella direzione del monitoraggio dei cittadini (o degli studenti) possa essere un precedente per altri passi più invasivi. Se un Comune può monitorare i passaggi delle biciclette (che per il momento non hanno una targa, e quindi non possono essere ricondotte ad un proprietario), cosa impedirà domani di costruire un Bicivelox che permetta di aggiungere entrate nella casse del Comune stesso? Se vengono tracciati i percorsi casa-scuola degli studenti, cosa impedisce di farlo anche per i docenti? Eccetera. Sono domande che sorgono spontanee nel momento in cui non c’è la necessaria trasparenza sull’uso di quei dati, sulla base legale, sui limiti non solo tecnici.


L’effetto di questo aumento della presenza dei dati come salvatori o come diabolici si mostrerà presto, a mio parere, in un movimento intellettual/popolare di ribellione all’acquisizione di dati. Un movimento che si presenterà come unito per poi spaccarsi in due ali francamente mosse da interessi diversi.

La parte intellettuale sosterrà che l’acquisizione dei dati (o la trasformazione in dati di azioni) è la nuova forma di creazione di valore a partire dalla vita delle persone. Che sia una processo gestito da grandi soggetti privati o da soggetti pubblici, e indipendentemente dalla finalità, si chiederà che nessun modello di machine learning possa essere addestrato sulla base di comportamenti ad alto valore professionale.

Un caso particolare di questa critica riguarderà i professionisti che vedranno scomparire il loro valore e sul mercato man mano che i dati del loro comportamento professionale saranno accumulati e utilizzati per il training di modelli di Machine Learning. Traduttori, programmatori, giornalisti per primi, poi in futuro docenti, medici, avvocati, architetti si renderanno conto che vanno incontro alla scomparsa come i panda. Anche l’università, e la formazione professionale in generale, si accorgeranno finalmente che rischiano un radicale ridimensionamento.

La parte popolare si limiterà a invocare il diritto all’opacità di ogni cittadino di fronte allo Stato, a difendere una generica libertà individuale. In un’unica rivendicazione verranno inclusi i dati fiscali, quelli produttivi, quelli formativi. Sarà facile per i movimenti politici che già fanno leva su questo tipo di istanze libertarie (nel senso della libertà del singolo individuo) cavalcare anche questa rivendicazione all’interno di un progetto politico liberista che punta a ridurre la presenza dello stato nella società.


Penso che questi movimenti vadano distinti, e le loro motivazioni analizzate con chiarezza. Se è vero che i dati sono il nuovo petrolio, nel senso che l’estrazione dei dati dalle azioni delle persone è la fonte principale di valore, questo valore va rivendicato sempre, soprattutto quando su quella base si costruiscono servizi che vanno a sostituire professioni avviando un percorso senza ritorno di rinuncia alla conoscenza teorica. Ma si tratta di un modo di raccogliere e usare i dati che è proprio primariamente di un numero ristretto di grandissime aziende, e che sta funzionando da modello e attrattore anche per le altre. Questo non ci esime dal cercare di ottenere da queste aziende una forma di autocontrollo; ma possiamo anche cominciare a pensare di usare meno servizi “gratuiti”, cioè pagati con i nostri dati, e usarne di nuovi a pagamento che però diano maggiori garanzie di trasparenza. Piccoli passi che ci aiuterebbero anche ad uscire dal sostanziale monopolio di servizi digitali in cui ci troviamo ora.

Per questo è necessario che la PA sia trasparente per quanto riguarda i percorsi di questi dati: perché anche se i suoi scopi sono diversi, la maniera di raggiungerli potrebbe implicare un passaggio (a costi limitati o addirittura senza costi) proprio per uno o più di questi fornitori di servizi.

Non si tratta tanto di proteggere il diritto del cittadino a nascondere alla PA i propri comportamenti, magari sul bordo dell’illegalità, ma di sancire il diritto di ogni cittadino, nei confronti della propria PA, di sapere cosa viene registrato, a chi viene consegnato e per quali usi, ed eventualmente limitare questi usi, così come si è fatto nel caso dei dati personali dal GDPR. Ma se il GDPR era nato per proteggere le economie dei Paesi europei contro la concorrenza di altri Paesi un po’ più leggeri nella gestione dei dati personali, stavolta si tratta di proteggere i diritti prodotti dai cittadini stessi, che non sono dati personali ma appartengono comunque alla sfera del valore e non solo a quella della tecnica.

Come per quanto riguarda i dati personali, la via più facile sarebbe quella di anonimizzare i dati, in modo che non sia possibile risalire al cittadino da cui sono stati prodotti. Purtroppo è una strada scivolosa e difficile. Facciamo un esempio: l’anonimizzazione può essere applicata per default oppure solo su richiesta del cittadino.

Nel primo caso, siccome i dati hanno senso soprattutto quando vengono incrociati, bisogna costruire un cittadino-doppio, un avatar anonimo su cui convergano tutti i dati raccolti. Questo doppio, identificato da un codice univoco all’interno della PA, non potrebbe davvero perdere il legame con il cittadino reale, altrimenti non sarebbe più possibile collegare i nuovi dati raccolti a quelli precedenti. Quindi il problema si sposta semplicemente dai dati al codice, dal tesoro alla chiave.

Nel secondo caso, quello di un’anonimizzazione su richiesta esplicita da parte dei cittadino, sorge il problema della propagazione a catena dell’anonimizzazione su tutte le repliche dei dati. Senza un protocollo che impone di tenere traccia di ogni replica, di ogni accesso in copia, sarebbe evidentemente impossibile assicurare il cittadino che tutte le copie sono state anonimizzate.

Insomma, in pratica i dati prodotti da un cittadino e quelli identificativi del cittadino restano connessi. E di qui il problema.


Spesso si dice che siccome le persone hanno già ceduto la maggior parte dei propri dati ad aziende private (l’uso della carta di credito, l’uso del telefono, gli spostamenti fisici, la navigazione web e in generale l’uso di servizi via Internet, i propri interessi e preferenze, la propria rubrica) non ha senso preoccuparsi dei dati forniti alla PA. E’ il tipo di critica che si riceve quando si parla di protezione dei dati all’interno di un social network. Fa venire in mente lo scrutatore non votante che “si fa la doccia dieci volte ma ha le formiche sulla tavola”.

Credo invece che i discorsi vadano tenuti separati. Da una parte è possibile, anche se difficile, condurre una vita senza cedere i propri dati ad aziende private, nel momento in cui si riesce a rinunciare ai servizi, a pagamento o gratuiti che siano, che queste offrono in cambio dei dati stessi. Si può vivere senza usare Google Maps, senza Gmail, senza Android, senza Windows e naturalmente senza social network centralizzati. Si possono cercare alternative, gratuite o a pagamento. Si possono fornire dati imprecisi, contraddittori o parziali.

Ma non si può vivere senza carta di identità, senza pagare le tasse, senza un fascicolo sanitario. In un caso c’è un contratto esplicito, accettato, che prevede uno scambio più o meno trasparente di dati contro servizi. Nell’altro caso, il contratto tra la persona e lo stato inizialmente non viene nemmeno firmato dalla persona, ma dai genitori al momento dell’iscrizione all’anagrafe. Quel contratto non specifica cosa lo stato possa fare in seguito con i dati del cittadino, ma fa riferimento alla Costituzione, alle Leggi statali e regionali. Da quel contratto si può uscire veramente solo rifiutando del tutto ogni nazionalità, o scegliendone una diversa.

Per questo è importante che la PA sia in grado di esporre un protocollo di raccolta dei dati che sia chiaro, inattaccabile, funzionale.


Una delle situazioni in cui questo problema potrebbe presentarsi improvvisamente (anche se le premesse sono presenti da anni) è quello della raccolta dei dati nella piattaforme di DaD, o di e-learning. Il tracciamento del comportamento degli studenti (non solo i voti o gli accessi, ma la navigazione fine, la consultazione dei link e degli allegati, la scrittura di testi, la comunicazione orizzontale) può essere più o meno spinto, e può essere più o meno usato a vantaggio degli studenti stessi, per esempio per arricchire la valutazione con dati che descrivono il comportamento degli studenti (o di un gruppo di studenti) in tempo reale, senza bisogno di aspettare il momento del test. Dati che permettono di confrontare quello che sta succedendo con quello che, in situazioni simili, ci si attende che succeda. Lo stesso potrebbe succedere, a breve, relativamente alla registrazione dei dati dei docenti: accessi, comunicazione con gli studenti, creazione di contenuti aggiuntivi, valutazione.

Da un lato è evidente che questi dati potrebbero essere usati per aiutare i docenti e i corsisti, o anche gli autori di contenuti, o i progettisti delle piattaforme; dall’altro, questi dati potrebbero essere usati per selezionare gli studenti ancora prima del termine del loro corso di formazione (come nel caso di alcuni MOOC), oppure per controllare il lavoro dei docenti e sanzionarne comportamenti inadeguati. O infine, e qui torniamo a quanto detto sopra, per costruire un modello di docente che sia in grado di fare lezione, correggere gli esercizi, assegnare voti.

Anche in questo caso occorrerebbe sbrigarsi a regolamentare cosa può essere raccolto, con che finalità, per quanto tempo.

Alcune ipotesi di lavoro.

1. Si può chiedere ad una PA di fornire un bilancio tra i servizi forniti grazie all’acquisizione di dati dei cittadini e la necessaria sottrazione di privacy dei cittadini stessi. Ci saranno casi in cui i vantaggi superano gli svantaggi, ed altri in cui l’acquisizione di dati non è giustificabile. Un bilancio che dovrebbe essere pubblico, facilmente leggibile dal maggior numero di cittadini, aggiornato frequentemente.

2. Si può chiedere ai poteri legislativi di stabilire, una volta per tutte, che i dati prodotti dalle azioni dei cittadini (come quelli che ne definiscono l’identità) vengano riconosciuti come di proprietà dei cittadini stessi. Non è un passo semplice, perché i dati non sono oggetti fisici che una volta ceduti non sono più di proprietà del precedente proprietario. I dati di cui parliamo non hanno nemmeno le caratteristiche dei prodotti dell’ingegno, che devono essere originali. Un’altra difficoltà deriva dal fatto che questa richiesta potrebbe andare in direzione opposta, almeno apparentemente, a quella dell’apertura dei dati pubblici. Andrebbe applicata una licenza permissiva ma con caratteristiche speciali: per esempio, dovrebbe essere possibile tracciare l’uso dei dati e rendere possibile la propagazione del blocco del loro utilizzo.

3. Questa legge dovrebbe anche stabilire che il trattamento di quei dati deve avere come finalità primaria il vantaggio dei cittadini e non del sistema organizzativo. I cittadini, attraverso i loro dati, dovrebbero sempre essere considerati un fine e mai un mezzo, come reciterebbe la versione moderna del principio regolativo kantiano.

Quali cittadini? Solo quelli a cui appartengono i dati, o tutti? E’ evidente che scienze come l’epidemiologia hanno bisogno dei dati di tutta la popolazione per provare a fare ipotesi significative.
Insomma, i principi non bastano, ci vuole ancora tanto lavoro. Ma sarebbe ora di iniziare a farlo.

La fine della formazione

Ago
14

La formazione professionale ha senso se esiste una professione d’arrivo, cioè se esiste il contesto in cui una certa competenza può essere esercitata, riconosciuta, richiesta, pagata. Quando il contesto scompare, scompare la professione, e scompare anche la formazione. E’ questo lo scenario che ci aspetta grazie alla creazione di modelli di Machine Learning addestrati a partire dai dati d’uso dei professionisti come traduttori, programmatori, giornalisti. Sembra curioso che il mondo della formazione non se ne renda pienamente conto.


1 “The grand object therefore of the modern manufacturer is, through the union of capital and science, to reduce the task of his work-people to the exercise of vigilance and dexterity” (Andrew Ure – The Philosophy of the Manufacturers (1835)

La fabbrica ottocentesca ha cancellato una serie di mestieri artigianali e la formazione relativa che avveniva nella bottega. Lo stesso è successo con l’agricoltura motorizzata che ha rimpiazzato i contadini e il passaggio delle competenza all’interno della famiglia. Si trattava di mestieri manuali che però richiedevano una competenza alta: zappare la terra, checché se ne dica, è operazione complessa oltre che faticosa. C’è stata una doppia sostituzione: la forza biologica è stata sostituita da forza inanimata (acqua, vento, vapore), mentre la mano è stata sostituita da un dispositivo meccanico. L’uomo serve ancora, ma solo come controllore di processo.

Questo processo è stato letto come un effetto della specifica maniera di produzione capitalista che ha condotto alla soppressione di milioni di posti di lavoro e alla miseria di milioni di famiglie; oppure come una generale promozione umana dal mondo del lavoro fisico a quello del lavoro intellettuale. Marx nel Capitale cita Aristotele: “se ogni strumento potesse compiere su comando o anche per previsione l’opera ad esso spettante, allo stesso modo che gli artifici di Dedalo si muovevano da sè o i tripodi di Efesto di proprio impulso intraprendevano il loro sacro lavoro, se in questo stesso modo le spole dei tessitori tessessero da sè, il maestro d’arte non avrebbe bisogno dei suoi aiutanti e il padrone non avrebbe bisogno dei suoi schiavi”. Non è la macchina in astratto a creare la disoccupazione e le condizioni di lavoro alienato, ma la maniera specifica in cui viene inserita nel processo produttivo.

Il fatto che il lavoro di aratura una volta fosse eseguito a mano, poi da una macchina semplice che usa un’energia non umana (un aratro mosso da un cavallo) e infine da un trattore, non ha cancellato il sapere sull’aratura: era comunque necessario che qualcuno sapesse come si deve arare, a che profondità, quando. La conoscenza teorica doveva esistere ed essere trasmessa e integrata nella macchina, mentre la competenza pratica poteva scomparire senza danni. Al posto dell’esperienza, trasmessa nella famiglia o nel laboratorio artigianale, arrivava la scienza, sulla base della quale si poteva progettare un algoritmo e costruire una macchina. Ma restava importante nella società il ruolo della formazione (dell’università, della scuola) come luogo di elaborazione e trasmissione di quella scienza.

2 Quello che sta succedendo oggi è qualcosa di diverso. Non è la mano con la pinza ad essere sostituita, ma la mano con la penna. Non sono i compiti di trasformazione della materia ad essere oggetto di ripensamento, ma quelli di trasformazione delle parole. Questo è reso possibile dall’inserimento di una macchina speciale (il computer) nel mercato del lavoro intellettuale. Anche la maniera in cui vengono inseriti è nuova.

I computer sono nati per fare calcoli complessi, calcoli che gli umani svolgevano in un tempo maggiore e con una possibilità di errore variabile. Tutti ormai conoscono la storia delle calcolatrici umane della NASA (“computer”). Il passo successivo è stato quello di collegare al computer un ricettore e un effettore fisico. In questo modo, oltre a fare i calcoli, il computer è diventato soprattutto un dispositivo che trasforma un algoritmo astratto in un gruppo di azioni fisiche, le quali vengono svolte non solo in una sequenza prefissata, come nel caso dei telai Jacquard, ma in base al presentarsi o meno di certe situazioni. Le lavabiancheria programmabili sono un buon esempio di questo livello di integrazione: un programma è costituito da una serie di controlli (livello dell’acqua, tempo trascorso, temperatura) e di azioni corrispondenti.

Ancora più avanti, i computer sono stati miniaturizzati e usati non direttamente per controllare macchine complesse, ma per supportare gli umani nel loro uso. Una autovettura moderna sarebbe difficile da guidare, ma anche da gestire, se non ci fosse un computer di bordo che raccoglie i dati, li elabora secondo modelli, e avverte il conduttore al superamento di condizioni di rischio (carburante in esaurimento entro X chilometri, pneumatici sgonfi, eccetera). In alcuni casi le autovetture sono in grado di effettuare da soli queste correzioni, come nel caso dell’intervento dell’ABS.

Tecnicamente cambia poco quando l’utente non è il consumatore ma il professionista, cioè quando è la sfera del lavoro ad essere investita dalla trasformazione. Anche i software di supporto alle professioni esistono da tempo: i meccanici usano software come supporto alla diagnosi delle autovetture, i giornalisti e i traduttori usano software che li aiutano nella scrittura, i docenti usano piattaforme che li aiutano a intercettare rapidamente un problema di apprendimento degli studenti. Anche in questo caso, si tratta di software che controllano i valori di alcuni parametri e sulla base di un modello di riferimento avvertono l’utente o gli forniscono suggerimenti di correzione. La differenza è che il computer è un ausilio del professionista nel suo operare verso terzi, quindi interviene mettendosi al suo stesso livello. E’ ancora un alleato, invisibile per il cliente.

3 Il passo successivo cambia completamente il quadro: il software si propone direttamente al cliente nella forma di servizio. Software che non si limitano a raccogliere dati, confrontarli con un riferimento atteso e suggerire eventuali correzioni, ma che sulla base di un modello addestrato a partire da un’enorme quantità di dati raccolti dalle performance di milioni di professionisti, e sulla base di tecnologie di machine learning, sono in grado di svolgere gli stessi compiti di questi professionisti e di offrirsi sul mercato in concorrenza.

Attualmente si vedono i primi esempi nei settori che sono circoscritti alla produzione di testi scritti: la creazione di riassunti o di brevi testi, la traduzione, la scrittura di programmi.

La traduzione automatica, il sogno fondante delle ricerche sull’Intelligenza Artificiale negli anni ’60, è ormai sufficientemente precisa da poter essere usata a livello semi-professionale. Non si possono ancora tradurre automaticamente romanzi in cui lo stile vada preservato, ma si possono tradurre brevi testi in cui il contenuto è quello che conta . Oltre ai più noti Bing Translator e Google Translate, ci sono software come DeepL, sviluppati da piccole aziende che restituiscono testi ben scritti, coerenti, fluidi. Ma mentre lo scopo principale di queste ultime è quello di vendere il proprio servizio come tale, lo scopo dei corrispondenti sevizi di Microsoft e Google è più ampio, e permette ai soggetti in questione di offrire gratuitamente, al momento, questo servizio; magari per inserirlo prossimamente come funzionalità aggiuntiva nelle suite di strumenti per l’ufficio che entrambi forniscono. Questo fa sì che studenti, professionisti, aziende che hanno bisogno di produrre un testo tradotto già oggi non fanno più ricorso ad un traduttore umano, che ha un costo che varia in base alla lingua (cioè alla disponibilità sul mercato di traduttori competenti nella coppia di lingue), ma si contentano della traduzione automatica. Così facendo, aumentano la base di dati su cui i modelli si addestrano, e migliorano la qualità del servizio.

I traduttori cominciano a soffrire per questa riduzione di lavoro e reagiscono difendendo “il plus umano”, specializzandosi in domini sempre più piccoli, volgendosi ai campi in cui lo stile è decisivo. Ma si tratta di strategie destinate a fallire: più aumenta il loro livello qualitativo e la loro specializzazione, più dati forniscono ai software di supporto alla traduzione, più diventano efficaci i software di traduzione automatica. Questa differenza è enorme, e rende la situazione molto diversa da quelle precedenti. Si crea un circolo vizioso da cui il professionista non può uscire. Attenzione: il circolo non dipende genericamente dall’uso di una macchina al posto di un uomo, o dall’uso della macchina computer in particolare, ma da questa particolare maniera di costruire competenza artificiale a partire dalla competenza umana.

L’aspetto che non è abbastanza sottolineato, a mio parere, è l’influsso che questa sostituzione ha sulla formazione professionale (nella quale è inclusa anche la formazione universitaria).

Man mano che si incrina il mestiere del traduttore, diventa inutile la formazione relativa, se non quella di altissimo livello (la traduzione letteraria, quella specialistica) che però farà fatica a trovare studenti che abbiano il livello necessario. Scompariranno i corsi base per interpreti e traduttori; ci si domanda se scompariranno anche i corsi di lingua, visto che per le necessità comuni tutto sommato un software è in grado anche da fungere da interprete. In ogni caso, già ora gli studenti di lingue sanno bene che il lavoro di traduttore è destinato a scomparire. I sottotitoli delle serie televisive vengono generati automaticamente (con qualità ancora scarsa); ma questo significa che non vale la pena per un ragazzo investire nell’apprendimento delle lingue pensando ad un futuro professionale in questo settore.

D’altra parte, i software di traduzione automatica non sono il frutto di un lavoro misto di linguisti e ingegneri, ma sono sempre di più basati su modelli costruiti sulla base di larghissimi esempi (machine learning). Questo renderà inutile la trasmissione alle generazioni future della conoscenza linguistica che sta alla base di un processo di traduzione umano. Dopo i corsi di traduzione e i corsi di lingua, scompariranno anche i corsi di linguistica e resteranno solo i corsi di machine learning.

4 Va beh, ma tradurre in fondo è semplice. La competenza della scrittura originale, quella, resterà sempre in mano agli umani. La creatività, ah la creatività.

Insomma. A prescindere dai software “tradizionali”, che sono in grado di creare plot narrativi a partire da personaggi e target (alcuni esempi sono raccolti qui), è il mondo del giornalismo che sta per essere investito dallo tsunami del machine learning. Non domani, adesso. Basta leggere quello che fa Asimov, un sistema della startup romana ASC27. Non sostituisce il giornalista (per ora), ma si presenta come il suo AI Collegue. Fa un sacco di lavoro sporco per i social network:: traduce il testo in audio, crea podcast oppure storie per Instagram; ma individua i trend di un settore, li traduce in strutture dati ed è in grado di scrivere dei drafts di articoli.

Se non ci credete, potete sempre provare con uno dei tanti colleghji di Asimov: per esempio, Sassbook Ai Writer.

5 La stessa cosa sta succedendo per la programmazione, come dimostra il caso di Microsoft AI Copilot. Nel primo periodo di test i programmatori saranno solo aiutati dal “copilota”, che si limiterà a suggerire il codice sorgente adatto al compito descritto dal programmatore. Ma una volta diffuso largamente, come plugin di Visual Studio, e una volta raccolti ancora più dati, AI Copilot si trasformerà in un servizio in grado di produrre autonomamente il codice sorgente.

A quel punto, non sarà più necessario per un’azienda assumere un programmatore senior o particolarmente creativo: qualunque junior potrà realizzare qualsiasi compito gli venga assegnato, esattamente come agli operai adulti e competenti si poteva sostituire un bambino nella fabbrica ottocentesca. E’ il sogno democratico americano: tutti possono diventare programmatori, con un po’ d’aiuto da parte di un guru, o di un modello di machine learning. L’arrivo sul mercato di un’ondata di programmatori junior, sempre più giovani, sempre meno formati ufficialmente, avrà l’effetto di cacciare fuori i programmatori senior, di abbassare il costo del lavoro del programmatore, di rendere inutili i corsi di formazione avanzati e i diplomi universitari. Si può anche discutere sul fatto che la qualità media del codice prodotto si abbassi: potrebbe anche darsi che il livello medio resti costante o addirittura salga. Viceversa, si potrebbe ipotizzare una standardizzazione che non presenterà picchi né in alto, né in basso. Codice corretto, funzionante, ma non innovativo, perché discendente da codice sorgente scritto in precedenza (per il momento, quello pubblicato in GitHub). Se a regime tutte le aziende usassero Ai Copilot, o un suo equivalente targato Google, anche la base di partenza su cui viene costruito il modello si uniformerebbe, con conseguente appiattimento del codice prodotto.

6 Ma senza proseguire in questa direzione, che è specifica del mondo della creazione del software in cui il prodotto di un software è esso stesso un software, in tutti gli altri casi possiamo fermarci alla fase 1: quella per cui ogni lavoro di produzione intellettuale che possa essere sostituito del tutto o in parte da un software andrà a scendere di posizione sociale, e quindi di valore economico, rendendo di conseguenza poco attraente la formazione relativa, che finirà per scomparire.

Una versione fantascientifica di questo processo prevede che ci sia una fase 2, in cui non sarà più necessario che ci siano programmatori umani a scrivere codice sorgente sulla base delle specifiche fornite dall’analista sulla base dei bisogni raccolti, ma sarà sufficiente che l’esperto del dominio applicativo di quel software descriva suoi bisogni perché l’AI Coder produca il software finale. Verrà quindi eliminata anche la figura dell’analista, e l’autore del software sarà un esperto che non ha le competenze per scriverlo o leggerlo. Ma poiché questa attività (scrivere il codice sorgente necessario per un certo compito) fa parte delle cose che sanno fare i software, il passo successivo sarà quello per cui l’idea stessa di scrittura del codice come atto separato sarà sostituita da una funzionalità aggiuntiva di ogni software, attivabile in continuo e non solo in certi momenti particolari. Tutti i software saranno dotati della capacità di crescere, di ripararsi, ed eventualmente generare cloni. E’ curioso, se ci si pensa, che lo scenario apocalittico di tanti film sul AI che prende il sopravvento della macchina sull’umano abbia come protagonisti i robot, e non i software, che sono molto più diffusi e molto più vicini all’autonomia.

Questo processo è diverso dal corrispondente processo di sostituzione dell’operaio competente con una macchina, perché in questo caso – grazie al Machine Learning che impara dati dati, non applica una teoria – anche la conoscenza teorica che permetteva di disegnare l’automazione verrà resa inutile. Non soltanto non sarà più necessario che sia un essere umano a scrivere un programma (o a effettuare una traduzione o scrivere un articolo); ma ad un livello superiore, non ci sarà nessuno in grado di verificare un testo, di correggerlo, di deciderne l’applicabilità ad un contesto.

Si può immaginare che per un certo periodo resti attiva una formazione ultra-specifica, riservata a pochissimi eletti, che sfoci in una nuova professione: il controllore umano. Si tratterebbe peraltro di un periodo di transizione, in attesa che anche questa competenza possa essere imitata ad un software.

Sul piano sociale, un effetto prevedibile potrebbe essere la nascita di un movimento neoluddista (sulla scorta del movimento che ha accompagnato la diffusione delle fabbriche), a cui parteciperebbero tutti i professionisti formati tradizionalmente, i quali si rifiuterebbero di fornire i propri prodotti come sorgente di apprendimento per i modelli di ML. Qui non siamo nella fantascienza ma nella storia: è quello che hanno cominciato a dire alcuni programmatori a proposito dell’uso del codice sorgente di Github da parte di Microsoft per nutrire il modello di AI Copilot: o GitHub cambia licenza, oppure togliamo il nostro codice da lì.

7 Se si trattasse di un processo naturale, di un movimento universale e necessario, potremmo pensare che l’umanità – o almeno la sua parte più ricca – dopo aver smesso di compiere lavori fisici smetterà anche di compiere lavori intellettuali, e si trasformerà in una specie dedita al godimento estetica, cancellando finalmente l’etica del lavoro e del merito.

Più realisticamente, potremmo immaginare che in aree geografiche del mondo in cui le persone che hanno delle competenze di valore sono rare – perché manca la formazione, perché non c’è un mercato, perché sono aree a rischio, perché i numeri sono troppo grandi – il software potrebbe sostituirle. In Paesi in stato perenne di guerra o di carestia è difficile trovare traduttori, giornalisti, programmatori (ma soprattutto docenti, medici, avvocati).

Allora ecco che il surplus tecnologico andrebbe a colmare quei vuoti.

Certo, ci sarebbe sempre una distanza: i Paesi ricchi si potrebbero permettere dei professionisti “veri”, supportati dai vari Collegues, Companions, Copilots, mentre i Paesi poveri avrebbero a disposizione solo quelli “artificiali”. Ma la crescita culturale che ne seguirebbe potrebbe anche modificare gli equilibri e creare più cultura a livello mondiale.

Il problema è proprio che questo non è un fenomeno naturale. C’è di mezzo la volontà precisa di alcune imprese di indirizzare in quella direzione l’uso dell’informatica, di fare profitto in questo specifico modo. Queste imprese intendono sostituirsi su scala planetaria al “motore della storia della tecnica” facendo delle scelte che tendono all’eliminazione delle professioni nelle aree ricche del mondo, e alla loro sostituzione da parte di “servizi”.

Inoltre, non cercano semplicemente il guadagno, come fa ogni impresa for profit, ma cercano di semplificare e controllare tutti gli aspetti della vita umana, per il bene dell’umanità. Già oggi non serve saper leggere una mappa, non serve sapere le lingue; e presto non servirà rivolgersi ad un programmatore. Basta affidarsi all’assistente privato, che si chiami Alexa, Siri, Cortana.

E’ importante vedere la non naturalità di questo processo, perché solo così si può pensare di invertirlo o almeno creare delle alternative (come, ad esempio Mycroft che si presenta come alternativa opensource agli assistenti vocali). Non è l’unica maniera in cui il digitale può evolversi, anche se è al momento quella più probabile. Bisogna riuscire a pensare una differenza.

E’ la differenza che è presente nell’analisi contenuta nel Capitale delle macchine ottocentesche tra strumenti usati nella manifattura e macchinario nella fabbrica:

“Nella manifattura e nell’artigianato l’operaio si serve dello strumento, nella fabbrica è l’operaio che serve la macchina. Là dall’operaio parte il movimento del mezzo di lavoro, il cui movimento qui egli deve seguire. Nella manifattura gli operai costituiscono le articolazioni di un meccanismo vivente. Nella fabbrica esiste un meccanismo morto indipendente da essi, e gli operai gli sono incorporati come appendici umane” (Libro I, Sez. IV, Cap 13).

E’ la differenza tra software come strumento (pannello di controllo, verifica, etc ) che aiuta e il software come macchinario che sostituisce.

Non è necessario che il software debba trasformarsi in macchina di cui le persone sono appendici. Si può ancora puntare a realizzare software che seguano il movimento delle persone, e non che lo impongano. Si può ancora immaginare una produzione di software che è volta al profitto – cioè al sostentamento di chi ci lavora – ma non al dominio totale di ogni aspetto della società.

E’ questa mancanza di pensiero alternativo che ci sta consegnando con le mani legate ad un futuro agghiacciante.

Pensiero computazionale sì o no? Boh, dipende dal linguaggio.

Gen
27

Una delle motivazioni dietro la spinta all’introduzione della programmazione dei computer in giovane età (=coding) è quella per cui questa pratica insegna il pensiero computazionale, che è un modo di affrontare i problemi in maniera scientifica. Anche se Jeannette Wing si è affannata a dire che non si tratta di insegnare ai bambini a pensare come i computer, e Seymour Papert a predicare che bisogna insegnare ai computer come se fossero bambini, questo tema resta nell’aria. Computazionale significa “razionale, finito, corretto, misurabile” eccetera. In pratica, imparare il pensiero computazionale significa, per ogni problema, saper immaginare un algoritmo che lo risolva. Questo algoritmo deve essere eseguibile praticamente da un computer: non deve contenere errori, non deve basarsi su termini ambigui, non deve richiedere un tempo infinito o una memoria infinita per arrivare alla soluzione.

Però gli algoritmi si pensano (e poi si scrivono) diversamente a seconda del linguaggio, e a seconda del tipo di linguaggio che si ha in mente. Usare un linguaggio semplice quando si è ai primi passi è sicuramente una buona idea; ma cosa significa “semplice”? Può significare che costringe ad usare dei concetti e delle operazioni di base, vicine a quelle che sa fare il computer; oppure che spinge a nascondere i dettagli e a concentrarsi “semplicemente” sulla struttura dei dati e sugli obiettivi.

Insegnare ai bambini una forma di pensiero computazionale che li abitua a pensare nei termini del primo significato di “semplicità” rischia di creare più problemi – in futuro – di quelli che risolva adesso.

Voglio provare a spiegare questa differenza con un piccolo esempio.

Partiamo da Snap!, un ambiente di programmazione che pochi conoscono, che assomiglia molto a Scratch (ne è derivato) ma ha delle differenze importanti. Intanto è nato all’Università di Berkeley, dall’altra parte degli USA rispetto a Stanford, dove è nato Scratch. Poi ha un target più ampio, nel senso che può essere usato da bambini ma anche da ragazzi più grandi, perché è basato su un modello di linguaggio più potente di quello che sta sotto Scratch. Le differenze tra Snap! e Scratch sono poco visibili ad un primo approccio (si possono disegnare girandole o creare scenette animate con entrambi), ma sono molto profonde. Ne elenco solo tre fondamentali:

  1. A differenza di Scratch, in Snap! si possono creare funzioni, cioè procedure che alla fine restituiscono un valore, e questo è molto comodo perché permette di costruire delle catene di funzioni che si applicano ai risultati di altre funzioni.
  2. In secondo luogo, in Snap! ci sono delle funzioni per creare e gestire vere liste (di numeri, di lettere, di parole, ma anche di sprite, o di qualsiasi oggetto).
  3. Inoltre le funzioni possono essere usate come oggetti da altre funzioni. In altre parole: una funzione si può applicare non solo a oggetti semplici (come numeri, lettere) ma anche ad altre funzioni. In aritmetica conosciamo questo tipo di cose: la moltiplicazione è l’applicazione ripetuta della funzione somma.

Il terzo punto è particolarmente utile quando si vogliono trattare delle serie di dati. Se vogliamo trasformare una lista di numeri, o di lettere, o di parole, in qualche altra cosa dobbiamo applicare una trasformazione ad ognuno degli elementi della lista per ottenere una nuova lista; avere un linguaggio che permetta di fare direttamente questo tipo di operazioni permette di concentrarsi sul problema, e non sul meccanismo delle soluzione.

Mettiamo, per esempio, di voler generare la lista dei quadrati dei primi 10 numeri interi. Partendo da una lista di numeri interi, vogliamo moltiplicare ogni numero per se stesso. Cioè da 1,2,3,4,5… vogliamo ottenere 1,4,9,16,25 …

Questo in Scratch si può fare così:

  • crea una lista di numeri interi e dagli il nome “numeri”
  • crea una seconda lista e dagli un nome “quadrati”
  • crea un contatore e dagli il nome “i”, e valore 0
  • ripeti tante volte quanto è la lunghezza della lista “numeri”:
    • aumenta “i” di 1
    • moltiplica l’elemento i della lista “numeri” per se stesso
    • aggiungi il risultato alla lista “quadrati”

Saltando la parte di creazione delle variabili, ecco i blocchetti:

E’ semplice, sì, ma è anche un modo di pensare molto meccanico, che segue esattamente quello che succede “sotto il cofano”. Siamo noi che ci adeguiamo al modo di lavorare del computer, e non viceversa. Arrivare a questa formulazione non è banale: bisogna imparare a pensare in un certo modo. Bisogna imparare il concetto di contatore, di indice di una lista, quello di ciclo, di test di terminazione, eccetera. Sono gli elementi di base della programmazione classica.

Proprio questo è uno dei limiti dell’approccio “computazionale” di cui parlavamo sopra: si impara a pensare come un computer, o meglio secondo gli schemi che il linguaggio di programmazione che usiamo (in questo caso Scratch) mette a disposizione.

Da un lato questo apprendimento ha degli aspetti positivi: ogni volta che ci poniamo un limite impariamo nuovi modi di risolvere problemi. Dall’altro, restare dentro quei limiti non ci permette di andare molto lontano. Potrebbe esserci (non è mai stato studiato a fondo) una forma di imprinting per cui il primo modello di programmazione imparato resta quello fondamentale, un po’ come la lingua madre. Se i bambini imparano a usare i cicli per scorrere le liste, poi continueranno a farsi venire in mente questa modalità anche in futuro.

Ma usare i cicli è solo uno dei possibili modi di risolvere il problema dei quadrati. Ce ne sono altri, che dipendono dal linguaggio che si usa.

In Snap! si possono disporre i blocchetti esattamente nello stesso modo che in Scratch:

Ma si può fare anche qualcosa di diverso, più semplice e soprattutto più vicino alla struttura del problema.

Per risolvere il problema dei quadrati dei numeri interi non siamo costretti a pensare in termini di contatori e di indici, non dobbiamo per forza preoccuparci di sapere quando fermare il processo, dove mettere i risultati. Queste sono cose che riguardano la meccanica dell’algoritmo, non il problema in sé.

Qual era la cosa che volevamo fare, l’idea iniziale? Applicare la funzione “moltiplica per se stesso” a tutti gli elementi di una lista. Bene, allora cominciamo dalla lista

Questo blocchetto è una funzione che restituisce una lista costruita con gli oggetti che mettiamo negli spazi bianchi, in questo caso i primi cinque numeri interi. Non abbiamo bisogno di creare una variabile perché la funzione restituisce sempre quello che ci serve. Ora possiamo disporre i blocchetti in modo da rispettare esattamente l’idea originale di applicare la moltiplicazione alla lista:

Finito. Non c’è altro da fare. Questo blocchetto (“applica”) fa da solo tutto il lavoro: prende il primo elemento della lista, lo inserisce nei due buchi del blocchetto verde, esegue la moltiplicazione e mette da parte il risultato, poi passa al successivo. Alla fine restituisce una nuova lista con i risultati.

La presenza del blocchetto “applica” è una delle caratteristiche di Snap! (e dei linguaggi funzionali a cui si ispira) a cui facevamo riferimento prima. E’ una funzione che lavora su altre funzioni. Usando questo approccio, non ci servono variabili, contatori, cicli. Per certi versi, è molto più intuitivo e vicino al problema questo approccio di quello precedente, in cui dovevamo introdurre una serie di concetti di supporto.


In Snap! c’è un’altra maniera di ottenere questo risultato, ancora più semplice di quella che abbiamo visto adesso. Torniamo all’idea di partenza: “moltiplicare ogni numero di una lista per se stesso”. Ma invece di moltiplicare ogni numero per se stesso, possiamo partire da due liste identiche, e moltiplicare ogni elemento della prima lista per il corrispondente elemento della seconda.

Proviamo a fare esattamente questo:

Il risultato è lo stesso. In sostanza, l’operazione “moltiplicazione” normalmente si applica a dei numeri; ma in Snap! è stata estesa per applicarsi anche a delle liste. Naturalmente potremmo pensare di utilizzarla anche per moltiplicare due liste diverse, o per moltiplicare una lista per un numero singolo. Forse funziona anche con altre operazioni? Proviamo con l’operazione “elevamento a potenza”:

Funziona. Ed è abbastanza chiaro che è molto più semplice di tutto l’ambaradam che avevamo dovuto mettere in campo prima. Questa modalità ci libera di tutta la parte meccanica e ci spinge invece verso una maniera diversa di concepire il problema che volevamo risolvere, che a sua volta ci apre la strada verso altre possibilità.

In conclusione: attenzione al linguaggio che si sceglie, e non confondiamo la razionalità con la meccanicità.

Tecniche e tecnologie per la fantasia

Dic
11

Fantasia e tecnica non vanno d’accordo, si direbbe. Meno ancora fantasia e tecnologia: se c’è una, scompare l’altra. Quando entra in campo la tecnologia, il libero gioco dell’immaginazione dove va a finire? Però, però…

La tecnica del sasso nello stagno è descritta da Gianni Rodari nel secondo capitolo della Grammatica della Fantasia, come parte dello strumentario che serve a chi vuole inventare storie per i bambini, o con i bambini.
E’ una tecnica fondata sulle relazioni che uniscono parole nella mente, ma anche sul potere del caso nel sorprenderci e generare l’inizio di una storia.

Si pensa una parola… o meglio: la si chiede a qualcuno che passa di là, oppure la si pesca da un dizionario, o da un libro. Perché un libro? Perché è ancora più casuale, e dunque più sorprendente. Apri il libro a pagina 27, prendi la terza parola della quinta riga.
Poi si parte da quella parola per esplorare una serie di associazioni che servono a far emergere altre parole.
Per esempio, partendo da stasera possiamo andare a cercare:

le parole che cominciano allo stesso modo: stabilire, staccare, stagione, storia, studiare, stupido, …

le parole che finiscono allo stesso modo , cioè che sono più o meno in rima con stasera: camera, eccetera, lettera, maniera, opera

le parole simili, che si usano nello stesso contesto: stamattina, stanotte, prima, dopo, più tardi

E già nasce una storia:

Stasera, in camera, apro una lettera: sempre la stessa storia, la solita maniera, come un’opera eccetera eccetera – stupido! –

fino ad usare la lettere che compongono la parola per fare un acrostico:

  • Strada
  • Treno
  • Anima
  • Sangue
  • Egli
  • Ritornare
  • Appunto

Tutte queste parole nuove possono essere usate per creare una storia o una filastrocca.
Posiamo programmare un computer per fare (almeno una parte di) queste operazioni?
Sì, ed è quello che ho fatto qui con iKojo, la versione online di Kojo:
http://ikojo.in/sf/vylXgjC/10
Cliccate su RUN, prendete nota delle parole che vengono fuori (compreso l’acrostico) e poi iniziate a scrivere.
A me, partendo dall’acrostico di sopra – generato appunto dal programma – viene in mente una storia titanica (nel senso del film):

Lui è partito, col treno, chissà quanta strada ha fatto, ma ama lei fin nel profondo dell’anima. Lo ha giurato col sangue. Le aveva detto che sarebbe tornato, una sera di queste, e appunto, stasera…

Fa piangere già così, immaginate se poi lui stasera non dovesse arrivare …

Un altro risultato del Sasso nello Stagno

Il binomio fantastico è un’altra tecnica notissima, sempre dai primi capitoli della Grammatica.
Qui si prendono due parole a caso, possibilmente dalla mente di due persone diverse, o ancora una volta da un dizionario, da un giornale (dal web?).
Gli esempi di Rodari riguardano due sostantivi, ma non si vede perché non si potrebbero usare aggettivi o verbi; anzi, ci sono splendidi esempi di applicazione di questa variante nei racconti che mettono in scena i gemelli terribili, Marco e Mirko: “il leone bela”, “il lupo è dolce”, “il cielo è maturo”.
I due sostantivi si mettono insieme usando delle preposizioni: con, di, su, in (ma io aggiungerei: sotto, sopra, con, senza…).
Cosa fanno? si incontrano, si scontrano, vanno d’amore e d’accordo?
Per esempio: sasso, stagno (guarda un po’ che fantasia…)

  • il sasso nello stagno
  • il sasso di stagno
  • il sasso sotto lo stagno
  • lo stagno del sasso
    eccetera.

Ogni frase può essere l’inizio di una storia.
A me il sasso di stagno piace molto, mi fa pensare ad una palla di carta stagnola, di quelle della cioccolata, che usavo per giocare a calcio in corridoio da piccolo. E’ un sasso gentile e bellissimo, luccica come una pepita.

Una volta un minatore che lavorava a Canale Serci, sul monte Mannu, volle fare una sorpresa a suo figlio di tre anni e gli portò un sasso di stagno. Ma non era un sasso, era …

Se preferite, partiamo con una filastrocca. Il sasso di stagno richiama subito un ragno dispettoso, forse geloso, ma di chi? facile: di un cigno

Quel sasso di stagno
tirato da un ragno
geloso di un cigno
più bianco del regno…

Di nuovo vi chiedo: potremmo programmare un computer per fare (almeno una parte di) queste operazioni?
Sì, ed è quello che ho fatto qui:
http://ikojo.in/sf/EnNhE3O/12
Cliccate su RUN e state a guardare.


Sull’importanza del caso, sulla sua magia che ci costringe a renderci conto di quello che siamo (esseri che non possono impedirsi di dare senso a qualsiasi configurazione casuale, che vedono strutture chiuse ovunque) e sulla sua importanza per la didattica ho già scritto qui.

Se date un’occhiata al codice sorgente (a sinistra) vedete che a dispetto della semplicità apparente c’è invece parecchio lavoro sotterraneo per riuscire a mettere un articolo davanti ad un nome, o per costruire la preposizione articolata corretta. Non perché sia difficile la programmazione: perché è difficile la grammatica italiana, che deve dar conto di quasi mille anni di storia, di prestiti, di varianti locali, di sovrapposizioni. Anche questo è un esercizio di coding interessante, che richiede riflessione su come funzionano i meccanismi della lingua per poterli trasformare in algoritmi. Non è sempre necessario ricostruire tutto da capo, si può partire da pezzettini già pronti – è quello che ho fatto io e che fa chiunque programmi un computer.
L’idea più generale di accoppiare a caso sostantivi, proprietà, azioni, luoghi sta all’origine delle creazione di Limericks casuali a partire da una struttura (sintattica, ma anche narrativa): qualcuno, in qualche posto, fa qualcosa, e allora succede qualche altra cosa. Come finisce? E’ lo schema di tanti giochi, e anche delle fiabe a ricalco, un’altra tecnica descritta nella Grammatica della Fantasia nel capitolo 21 (ma ripresa anche in molti di quelli seguenti).
Entrambe queste possibili “applicazioni rodariane” del coding le ho descritte in “Lingua, coding e creatività”, che è un libro che cerca di scardinare l’idea che fare coding sia solo un’attività carina o che si debba fare solo per studiare le STEM; i codici sorgenti relativi, in Logo, Prolog e Kojo, sono nel sito di accompagnamento al libro e li possono scaricate tutti.

Bene, ora arriva la domanda cruciale: ma se usiamo un computer per tirar fuori tutte queste parole, non stiamo limitando la creatività nostra o dei bambini?
Io non credo. Per due motivi che mi pare possano fondarsi proprio su quello che Rodari ha scritto, come ho cercato di spiegare in “Rodari digitale“, l’ultima fatica di quest’anno.

Primo: la parte creativa non è quella di andare a cercare le parole, ma quella di costruire la storia. La ricerca delle parole è la parte meccanica, che richiede l’accesso ad un archivio di parole e alcune regole. Altrimenti basterebbe avere nove parole per fare una poesia (“Si sta come d’autunno sugli alberi le foglie”).

Secondo motivo: non sto proponendo di usare un programma bello e pronto, e nemmeno di cominciare da zero. Propongo di partire da un codice sorgente che funziona, ma di metterci le mani da subito. Cambiando le parole di partenza, cambiando le regole (per esempio: solo sostantivi o anche verbi? quali preposizioni?). Variando la tecnica: tre parole invece di due; oppure aggiungendo i prefissi e i suffissi, i diminutivi e vezzeggiativi.

Terzo motivo (non era previsto, ma lo aggiungo lo stesso): un computer sarà pure ottuso, ma non c’è limite alle cose creative che possono fare un umano e un computer, insieme.

Piattaforme queste sconosciute

Ott
12

Tra le parole più consumate per il cattivo uso quella di cui parliamo oggi è piattaforma. Ne avevo parlato qualche tempo fa qui ma oggi vorrei approfondire perché sono scoraggiato da quanto leggo qua e là.

Platform 9 3/4
Immagine di Oleg Sklyanchuk , CC BY-NC 2.0

Due etti di storia della parola: derivata dal medio francese, in inglese è attestata a partire dal 1550 nel senso di “piano, disegno, progetto”; poi ha perso questo significato metaforico per orientarsi verso uno più letterale. A partire dal XIX secolo si usa in geografia, in tecnica ferroviaria e poi in politica. La piattaforma petrolifera è una cosa piatta, in mezzo al mare, sulla quale ci si sta a lavorare come se fosse un’isola, come se fosse terraferma. E infatti ci sono anche le piattaforme per i tuffi… divertitevi qui a trovare tutti gli usi censiti dal dizionario Treccani. Se cercate il significato di “piattaforma informatica” invece sarete delusi perché è definita piattaforma praticamente qualsiasi cosa, hardware o software, che ne permette altre. E infatti i software per la creazione e gestione di corsi online (che, tanto per ricordarlo ai distratti, NON significa a distanza) potrebbero essere chiamati “piattaforme”, invece che software e basta, quando si volesse sottolineare che non sono soluzioni autosufficienti, ma che sono dei piani dove si può sostare e fare cose come se si fosse a terra, cioè sono delle tecnologie abilitanti ad altro. Oppure per dire che le attività che si fanno lì dentro non sono cablate dentro al software, ma sono optional, moduli autonomi che si possono aggiungere e togliere a piacimento. Ora seguitemi mentre cerco di spiegare cosa possono essere questi moduli: contenuti, pezzi di software, altre applicazioni, e chissà che altro. In questo modo magari riusciamo anche a capire le differenze tra piattaforma, suite, groupware, cloud.

  1. Non tutti i software per l’apprendimento online sono letteralmente piattaforme. Alcuni sono perfettamente autonomi: anche se non è definito a priori ciò che contiene il singolo corso (i contenuti, la loro struttura, le modalità di comunicazione e collaborazione tra corsisti si possono decidere volta per volta), tutto quello che serve si fa lì dentro senza bisogno di aggiunte esterne. Sono ambienti di apprendimento, ma non piattaforme. Non è né un bene né un male in sé: sono il frutto di una scelta e seguono una filosofia precisa con vantaggi e svantaggi. Un paio di vantaggi come esempio: il monitoraggio e la valutazione sono molto semplici, perché tutto quello che corsisti e docenti fanno avviane lì dentro. Inoltre, è molto più facile garantire la privacy degli utenti, perché niente fugge verso altri lidi dove non si sa bene cosa capita ai dati personali. Ci sono ovviamente svantaggi: le attività possibili sono solo quelle previste da chi ha progettato il software; altre attività possono essere suggerite, segnalate, ma non integrate in maniera trasparente nel percorso di apprendimento.
  2. Un software per l’e-learning che sicuramente è una piattaforma è invece Moodle. Moodle è stato chiamato così (Modular Object-Oriented Dynamic Learning Environment) dall’inventore per far notare che è un software modulare, cioè che le attività didattiche non sono cablate all’interno una volta per tutte ma sono pezzetti di software che si possono a) aggiungere ad un corso b)aggiungere alla piattaforma e c) aggiungere al repository del codice sorgente di Moodle. La prima operazione spetta all’autore del corso (il docente) la seconda al sistemista che configura la piattaforma, la terza agli sviluppatori che seguono le linee guida e producono nuovi moduli che si possono agganciare alla piattaforma (b) e aggiungere al corso (a).
  3. Questo approccio si basa su due linee di pensiero collegate ma diverse. La prima è quella che pensa le attività come oggetti che si possono descrivere, circoscrivere, prendere da un deposito e riusare. Questa linea di pensiero è quella che è stata resa famosa (e anche presa in giro e vilipesa), con lo standard SCORM: Shareable Content Object Reference Model. Standard inventato dall’Advanced Distributed Learning, presso il Dipartimento della Difesa degli Stati Uniti. Standard che si è evoluto fino all’ultima versione del 2009, e poi è stato abbandonato dagli stessi promotori a vantaggio di un approccio diverso: “qualsiasi cosa può essere un’attività didattica, purché sia in grado di inviare dati sull’utilizzo da parte dello studente secondo un linguaggio standardizzato”. Inviare a chi? Ad una piattaforma (detta Learning Record Store) che non ha uno scopo preciso, ma si limita a ricevere e organizzare i dati in modo che possano essere interrogati dai software di e-learning. Un po’ più avanti, sempre su questa linea tecnico-didattica si colloca lo standard LTI proposto dal consorzio IMS. Qui si tratta, più modestamente, di un protocollo che permette ad una piattaforma di e-learning come Moodle di parlare con un sistema di videoconferenza come se fosse un oggetto SCORM , cioè di inviare i dati di accesso di un utente e ricevere i dati sul suo utilizzo.
  4. La seconda linea di pensiero è quella più strettamente informatica, quella dell’Open Source. Visto che il codice sorgente dei software open source è riusabile anche da altri, è possibile tecnicamente, ma anche legalmente, aggiungere librerie, moduli, oggetti realizzati da altri sviluppatori all’interno del proprio software. Naturalmente, perché non sia un furto, occorre assicurarsi che la licenza originale lo permetta e specificare l’autore iniziale. Prendere il codice altrui e ricopiarlo senza citare è poco diverso da un furto. Questa bella opportunità – che non è tipica delle piattaforme, ma di tutto il software opensource – però nasconde anche dei rischi: siccome è facile copiare e incollare, o includere, non è detto che chi include abbia il tempo di controllare linea per linea il codice sorgente incluso e verificarne la qualità. Potrebbe farlo, tecnicamente e legalmente, ma non è detto che lo faccia. Per questo esistono versioni di software open source (ad esempio, versioni di Moodle) che sono garantite da qualcuno che si è preso la briga di leggere tutto il codice sorgente, eliminare la robaccia e i pezzi sospetti e tenere solo i moduli robusti e sicuri. I software proprietari (non nel senso che sono di qualcuno, ma nel senso che il codice non è opensource) ovviamente non permettono questo tipo di controllo. Di qui l’obbligo previsto dal CAD per la pubblica amministrazione di effettuare sempre una valutazione comparativa che prenda in considerazione il software opensource.
  5. Un altro tipo di piattaforme, nel senso di software non mono-blocco ma modulare, sono le suite per ufficio. Quelle che tutti conoscono oggi sono Google Gsuite e Microsoft Office365, ma le suite per ufficio esistono dalla metà degli anni ’80. Sono collezioni di software indipendenti, online o offline, che dialogano tra loro. Nel caso di software installati sullo stesso computer, questo “dialogare” significa che condividono l’interfaccia e il linguaggio; che si possono copiare e incollare dei pezzi di documento dall’uno all’altro oppure convertire facilmente da un formato all’altro. Nel caso di applicazioni remote, a cui si accede tramite internet, il dialogo è anche a livello di accesso: quando un utente è registrato e fa il login nella piattaforma/suite non ha bisogno di essere registrato anche nei software satelliti ma può passare da uno all’altro senza apparente interruzione. Le applicazioni sono remote nel senso che stanno su computer accessibili solo via Internet, ma anche perché per ragioni di convenienza, cioè di flessibilità e di sfruttamento degli investimenti fatti, sono divise in pezzetti sparsi su più computer. In questo secondo caso si parla di cloud, per indicare appunto che l’utente non ha modo di sapere esattamente dove stanno le applicazioni che usa, i documenti che produce e in generale i propri dati. E’ una situazione di incertezza che è diventata problematica con l’applicazione del GDPR. Peraltro parliamo qui di suite “per la produttività”, non di software per l’apprendimento, anche se è molto percepibile il tentativo di far passare una cosa al posto di un’altra cambiando terminologia. Non è solo una questione di marketing, ma anche di modello sottostante: se la scuola è palestra di vita, niente di anormale che fin da piccoli occorra abituarsi ad usare un word processor, un foglio di calcolo, un database. Si può essere d’accordo o meno con questa impostazione, ma va tenuta ben presente.
  6. groupware sono ancora diversi: sono software per la collaborazione e il lavoro di gruppo online. L’esempio più noto oggi è Microsoft Teams, ma anche in questo caso i primi sistemi del genere datano da almeno i primi anni novanta, se non si vuole considerare NLS di Engelbart che era addirittura della fine degli anni ’60’. L’unità di significato minima qui è il gruppo di persone, non la persona, e quindi le funzionalità principali sono appunto quelle che consentono di comunicare tra i membri del gruppo (chat, bacheca condivisa, videoconferenza), di scambiarsi files, organizzati in cartelle fisse o personalizzabili, e organizzare il lavoro (agenda e rubrica, progetti e tracciamento delle attività). Per un fenomeno ben noto di marketing aggressivo e concorrenza spietata per cui ogni software vuole diventare piattaforma, e quindi sostituire tutti gli altri, ai groupware si possono aggiungere altri pezzetti di software, e quindi diventa difficile distinguerli dalle suite di cui sopra.
  7. Tra le funzionalità dei groupware quella che oggi è davvero irrinunciabile (ma c’era già in NLS…) è la videoconferenza; il che complica le cose, perché si tende a confondere un groupware che ha al suo interno la videoconferenza (come Teams) con un sistema di videoconferenza vero e proprio (come Zoom o Jitsi). Chiamare Zoom una piattaforma è chiaramente improprio, sia perché non è una base dove si aggiungono moduli, sia perché parlare guardandosi in faccia non è sufficiente per collaborare.
  8. Se è vero che collaborare è sicuramente una parte importante del processo di apprendimento di gruppo, e collaborare e comunicare online diventa fondamentale quando la collaborazione fisica e la comunicazione orale non-mediata è impossibile, va tenuto presente che una suite di produttività per ufficio o un software pensato per supportare un gruppo di lavoro non sono necessariamente ambienti ottimali per l’apprendimento. Di qui tante durezze, giri improbabili, gerarchie e controlli esagerati, funzioni inutili e altre inspiegabilmente mancanti.

Per chiudere, spero che la parola piattaforma ora sia più chiara per tutti e venga usata in maniera coerente (e questa sarebbe una magra soddisfazione), ma soprattutto che non ci si butti ad usare X solo perché qualcuno ha sentito dire da qualcun altro che “è una piattaforma per la didattica digitale”.

Piattaforme obbligatorie e non

Set
15

Dunque si inizia: in presenza ma lontani, a distanza ma connessi. I professionisti, le aziende, le associazioni, le fondazioni, le università e le scuole devono essere pronti in caso di X (con X=lockdown totale, ma anche dimezzamento dei docenti o degli studenti).
Nella Scuola e nell’Università italiane sono pochi (da quello che vedo) quelli che colgono l’occasione per riformare la maniera di apprendere e insegnare una volta per tutte, per esempio abbandonando il modello trasmissivo e adottandone uno di costruzione collettiva di conoscenza. Pochi hanno utilizzato questi mesi per risistemare il “capitale” di metodi, risorse, informazioni esistente ma frammentato e nascosto nelle teste o nei file dei docenti, in modo da renderlo accessibile, manutenibile, incrementabile, insomma usabile davvero. Ancora meno, mi pare, hanno ripensato la valutazione, arricchendola con elementi che derivano proprio dall’esistenza di un piano digitale comune dove studenti e docenti si muovono insieme.

Adesso però bisognerà scegliere il sistema di videoconferenza (che come si sa è IL canale deputato a tutto: formare, valutare, controllare, supportare, selezionare, anche se probabilmente nessuna scuola italiana è oggi in grado di reggere la connessione contemporanea di tutti gli studenti e docenti) ed, eventualmente, la piattaforma dove collocare i “contenuti didattici da far fruire”. Sic.

Quale piattaforma? Beh, naturalmente lo decide il dirigente, che però non necessariamente ha tutte le conoscenze tecniche e legali che servono. Forse si fa consigliare dall’animatore digitale, forse da un consulente esterno, oppure dai colleghi dirigenti più in vista. Oppure va sul sito del MIUR e poi torna trionfante: “Bisogna usare X, lo dice il Ministero!”. Allora, parliamone.

Nella pagina https://www.istruzione.it/coronavirus/didattica-a-distanza.html si trovano solo tre proposte di piattaforma: Google Suite, MS Teams e TIM Weschool. Visto? Ma se cliccate sul bottone “Continua a leggere” (che sarebbe stato meglio chiamare: inizia a leggere) magicamente appare un testo che dice:

Da questa sezione è possibile accedere a: strumenti di cooperazione, scambio di buone pratiche e gemellaggi fra scuole, webinar di formazione, contenuti multimediali per lo studio, piattaforme certificate, anche ai sensi delle norme di tutela della privacy, per la didattica a distanza. I collegamenti delle varie sezioni di questa pagina consentono di raggiungere ed utilizzare a titolo totalmente gratuito le piattaforme e gli strumenti messi a disposizione delle istituzioni scolastiche grazie a specifici Protocolli siglati dal Ministero. Tutti coloro che vogliono supportare le scuole possono farlo aderendo alle due call pubblicate dal Ministero che contengono anche i parametri tecnici necessari.

“Le “call” con i “parametri tecnici” stanno alla pagina https://www.miur.gov.it/web/guest/-/coronavirus-pubblicate-due-call-per-sostenere-la-didattica-a-distanza
I requisiti “tecnici” che devono avere le piattaforme sono presto detti:

“[…] tutte le piattaforme devono essere rese disponibili gratuitamente nell’uso e nel tutorial; la gratuità va intesa sia nella fase di adesione ed utilizzo dello strumento sia al termine di tale fase. Nessun onere, pertanto, potrà gravare sulle Istituzioni scolastiche e sull’Amministrazione;

  • per le piattaforme di fruizione di contenuti didattici e assistenza alla community scolastica: sicurezza, affidabilità, scalabilità e conformità alle norme sulla protezione dei dati personali, nonché divieto di utilizzo a fini commerciali e/o promozionali di dati, documenti e materiali di
    cui gli operatori di mercato entrano in possesso per l’espletamento del servizio;
  • per le piattaforme di collaborazione on line: qualifica di “cloud service provider della PA” inerente alla piattaforma offerta, ai sensi delle circolari Agid n. 2 e 3 del 9 aprile 2018.”

Insomma, prima di tutto servizio gratis ma con assistenza. Poi una divisione che a me sembra un po’ sospetta:

  • da un lato piattaforme per la fruizione di contenuti didattici e assistenza alla communità scolastica, che devono soddisfare requisiti più stringenti in termini di sicurezza, protezione della privacy;
  • dall’altro le piattaforma di collaborazione online, che NON hanno bisogno di soddisfare questi requisiti.

Indovinate in che categoria vanno certe piattaforme gratuite a cui sicuramente state pensando adesso?
Chi si può permettere questo tipo di offerta gratuita a tutte le scuole italiane? E’ un modo chiaro per estromettere ogni piccolo fornitore locale, ogni proposta fatta una piccola cooperativa di ex-studenti dell’istituto tecnico. E’ un modo per aumentare il monopolio e per rinunciare a promuovere una crescita del comparto in Italia. Ne ho già parlato qui.
A parte il fatto che ci sono dei requisiti di legge (GDPR) che nessuna circolare o nota ministeriale può aggirare, non c’è traccia del requisito “a codice sorgente aperto”. Che non è una bizza di qualche hacker fuori tempo massimo: la legge del 7 agosto 2012, n. 134 ha modificato l’art. 68 del codice dell’amministrazione digitale introducendo per tutta la PA l’obbligo di effettuare “analisi comparativa di soluzioni“, comprese quelle basata su software libero o codice sorgente aperto. Inoltre, nelle Linee Guida per l’adozione e il riuso del software da parte delle PA che sono in vigore dal 9 maggio 2019, si aggiunge, tra i criteri di valutazione, l’uso di dati aperti, di interfacce aperte e di standard per l’interoperabilità. Sarebbe ragionevole che questi criteri venissero ricordati, perché non sono curiosità o suggerimenti benevoli. Anche a prescindere dalla questione recente del Privacy Shield statunitense e della sentenza della Corte Europea che lo invalida.
Insomma, caro Dirigente, vogliamo farla, questa valutazione comparativa?

A proposito: i protocolli di intesa firmati nel 2020 stanno qua https://www.istruzione.it/ProtocolliInRete/Protocolli_Accordi.html

Sempre dalla pagina del MIUR si accede ad altri elenchi di iniziative, servizi, insomma cosa che dovrebbero aiutare le scuole sull’onda del #damosenamano. Come https://www.istruzione.it/coronavirus/didattica-a-distanza_altre-iniziative.html dove ci sono delle pubblicità a società e servizi, oppure quello delle proposte universitarie https://www.istruzione.it/coronavirus/didattica-a-distanza_uni-afam.html dove si trova lo stesso livello di “valutazione”. Se poi si vuole raggiungere l’apice, si legga l’elenco dei servizi di solidarietà digitale offerti questa volta da MITD e Agid, ma linkato sempre nella pagina MIUR: https://solidarietadigitale.agid.gov.it/#/ dove c’è, francamente, la qualunque.
Insomma: a oggi, non c’è uno straccio di niente che dica che la piattaforma X è adatta mentre la Y no.


Così mi pare si possa dire. Magari mi sbaglio.

Una Lente per osservarli tutti

Ago
19

Repubblica online, Stazione Luna, rubrica a cura di Riccardo Luna. L’articolo di oggi 19 Agosto 2020 si intitola “Lens, la app che ti farà i compiti di matematica (e che si svela il senso di Google)” (proprio così, magari lo correggeranno in seguito). L’ho letto subito con grande interesse, conoscevo Lens ma non sapevo che si occupasse di educazione.
La frase finale del titolo, è ancora più attraente: Lens si svela essere il senso di Google?
Premetto che non ce l’ho particolarmente con Luna, ma che anzi gli sono grato perché i suoi brevi post mi permettono di riprendere in mano e approfondire delle questioni importanti, anche se il modo in cui le presenta è sempre un po’ troppo semplice e non mi convince del tutto. Forse non è un caso, è la forma che ha scelto per la sua rubrica, e non gli si può chiedere di scrivere diversamente. In poche righe, e per un lettore medio, deve presentare un pezzo del mondo di oggi come se fosse domani, per poi chiudere con una strizzatina d’occhi per dire che lui non ci crede fino in fondo. Stavolta parla dell’intelligenza artificiale applicata all’educazione. Riporto il suo testo integralmente, in corsivo; il resto sono i miei commenti.

Sono abbastanza sicuro che la app preferita dai ragazzi in autunno non sarà un social network di selfie e stories tipo Instagram, o di balletti e sfottò come Tik Tok, e nemmeno l’eterno Whatsapp. Sarà una app di matematica. Una app che risolve i compiti di matematica più complessi semplicemente inquadrandoli con la telecamera dello smartphone. Sarà Google Lens. Google Lens esiste da un paio di anni ormai, ma la funzione “risolvi il problema di matematica” è appena stata annunciata.

Google Lens fa parte dei servizi di Google a doppio senso. Ovvero: inquadrata un’immagine, fornisce un aiuto nella ricerca di immagini similari, collegandole poi ad informazioni testuali. Ma contemporaneamente, utilizza l’esperienza degli utenti che l’hanno scaricata (oltre un milione, secondo Play) per migliorare il riconoscimento delle immagini, premiando la risposta scelta dagli utenti umani in modo che abbia più probabilità di essere riproposta in futuro. E’ quello che succede con i Captcha che ci chiedono di riconoscere immagini di ponti, autobus e strisce pedonali acquisite tramite Google Street View per dimostrare che siamo umani, e nel frattempo migliorano il servizio di riconoscimento delle immagini e chissà, forse anche la capacità dei piloti intelligenti del futuro.

C’erano già altre app che promettevano di fare la stessa cosa, ma con Google è diverso.

In effetti, il servizio di “risoluzione dei problemi di matematica” non appartiene a Lens, ma a Socratic. Anche questa app esisteva da tempo, inizialmente solo per IOS, e si limitava ad accettare domande e a fornire risposte prese da Wikipedia, da Yahoo Q&A e da altre fonti. Da gennaio 2017 Socratic viene dotata anche di un motore capace di risolvere espressioni ed equazioni, e di mostrare i passaggi necessari (semplificazione, spostamento di un termine da un lato all’altro dell’equazione). Nel 2018 la società che la produce viene acquistata da Google per una somma non dichiarata. La storia di Socratic però la vediamo più avanti.

Nel video di presentazione dell’epoca (ancora disponibile su Youtube ) si vede una ragazza alle prese con una pagina di compiti. Sul foglio la ragazza ha affrontato prima un’equazione semplice:

3 (y+2) = 16

E qui la ragazza non ha avuto problemi. Subito dopo, deve affrontare l’equazione

2y-x = 8x+2

che è ovviamente di difficoltà maggiore, e infatti la ragazza resta bloccata tre-quattro secondi, finché non posa la penna, pronta ad abbandonare il compito, e chissà, anche lo studio della matematica. E’ vero che in alto a sinistra c’è il suo libro di matematica aperto alla pagina “Inequalities and their graphs”, ma la ragazza non sembra ricordarsene. Invece a questo punto inquadra il suo foglio di carta con il suo IPhone, che mostra immediatamente il procedimento “esatto” da seguire per risolverla. Non solo: per ogni passaggio la ragazza può vedere degli approfondimenti sui concetti e i metodi usati (es. aggiunta di uno stesso termine ad entrambi i lati dell’equazione), grafici, video, insomma tutto quello che serve.

Una valutazione dell’app Socratic originale la potete leggere in questa recensione di maggio 2018.

Google sa davvero tutto. Qualcuno potrebbe obiettare che si tratta di una funzione anti-educativa perché consente ai ragazzi di non fare i compiti e farli fare a Google;

Qui tocchiamo il punto cruciale, a mio avviso. Oggi risolvi il problema di matematica, domani quello di fisica o chimica, dopodomani traduci questo passo di Seneca. Non sarà come con la calcolatrice, che ci ha fatto disimparare le quattro operazioni? Non sarà come con l’ascensore che ci ha fatto odiare le scale?
Sulla validità dell’obiezione torneremo dopo. Ma la domanda è: perché Google è improvvisamente interessato all’educazione – a partire almeno dalle suite di applicazioni da ufficio etichettate “Education” ? Si tratta di un mercato enorme, è vero, ma Google non ha nessuna particolare competenza in piattaforme e software educativo. Perché ha deciso di comprare una società che produce una app che va usata durante lo studio, non prima o dopo?

Perché è esattamente qui che Google (seguito da tutti gli altri grossi player dell’IT) vuole andare. Google vuole spingere gli studenti a sostituire un supporto esterno generico e spesso obsoleto (come un libro), o costoso e raro (come un docente umano) con un supporto just-in-time, specifico, mirato e virtualmente onnisciente. Forse l’acquisto di Socratic serve a testare il terreno, a raccogliere informazioni e a preparare l’avvento di qualcosa di molto più potente: un tutor intelligente che utilizza il profilo dello studente/utente per accompagnarlo ovunque. Una specie di assistente educativo personale. Perfetto anche in tempi di pandemia per l’educazione familiare senza il rischio del contagio di classe. L’equivalente di Alexa, Cortana e Siri, ma mirato per un’età e per un’attività specifica di quell’età, lo studio. Bello, no? Beh, dipende dai punti di vista.

Prendete i navigatori auto, sia hardware che software. Oggi si percepisce che soprattutto gli utenti più giovani – ma non solo quelli – sono talmente abituati ad usarli da non essere quasi più capaci di leggere una cartina dall’alto, usando i punti cardinali, e grazie a quella costruirsi nella mente una rappresentazione di una regione dello spazio che comprende il luogo in cui sono e il luogo in cui vogliono andare. E non avendo questa visione generale, tendono ad accettare i suggerimenti della voce suadente di turno che fornisce il minimo di informazioni necessarie per agire momento per momento: “esci dalla rotatoria alla terza uscita”. E’ vero: i navigatori sono in grado di consigliare il miglior itinerario possibile tenendo conto della mappa, di alcune personalizzazioni (poche per la verità: il mezzo di trasporto e la disponibilità economica) e soprattutto dei dati di percorso provenienti dagli altri utenti. Ma i navigatori non spiegano perché è meglio fare una strada anziché un’altra, non puntano a educarci in modo che la prossima volta siamo in grado di fare da soli: i navigatori puntano a diventare indispensabili, a renderci dipendenti.

Immaginate una versione intelligente di un assistente per la scrittura. Una volta detto “voglio scrivere una lettera a Giovanni”, l’assistente comincia a suggerire delle parole, una alla volta: “Caro Giovanni, come stai?”. L’utente può accettarle oppure no, può sostituirle con altre (“Caro Giovanni, come te la passi?”), e l’assistente in questo caso capisce che il tono deve essere più colloquiale, si riposiziona nello spazio lessicale della lettera e suggerisce nuovi itinerari verso la conclusione: “Tanti cari saluti, tuo Stefano”. Questo modo di interagire non richiede all’utente di avere in anticipo un piano del testo, della lettera, ma solo una vaga idea della destinazione; assume come modalità di scrittura qualcosa che assomiglia al viaggio assistito dal navigatore, in cui si procede in soggettiva, un passo alla volta, seguendo i suggerimenti dell’assistente. Una forma molto moderna della scrittura automatica di Allan Kardec.

Questo è l’obiettivo finale di ogni servizio digitale, in ogni campo: stare vicino all’utente in ogni momento, aiutarlo, suggerirgli quello che deve fare in tempo reale, fino diventare indispensabile. Rendere l’utente minore, convincerlo che non può fare a meno di un motore di ricerca, di un sistema di comunicazione sociale, di un negozio online, e di un assistente educativo.

E’ curioso (o forse no) che questa strategia si applichi proprio nel campo dell’educazione, perché è tutto il contrario dell’educazione, è la negazione del concetto stesso di educazione, che dovrebbe essere un modo di far crescere le persone e renderle adulte, responsabili e capaci di scelta. Un apprendimento senza deutero-apprendimento, senza mai imparare a imparare, senza riuscire a diventare finalmente autonomi per andare avanti da soli.

Ma Google ha come motto “Don’t be evil”: come è possibile che voglia entrare nelle vite di tutti per il vantaggio solo di qualcuno? Non lo so, ma non credo che serva immaginare un delirio di onnipotenza. E’ sufficiente una strategia globale di dominio economico: il monopolio è molto conveniente e più sostenibile della concorrenza libera. Una volta che l’app Socratic diventa la compagna indispensabile dello studente, sarà difficile cambiarla. Una volta che tutti i tuoi file sono su Drive e la tua posta su Gmail, è difficile passare ad un altro fornitore, anche se dovesse fornire funzionalità superiori. Come minimo dovresti migrare tutti i tuoi contenuti da una piattaforma all’altra: chi ci ha provato sa che è un incubo.

Contemporaneamente, Google non nasconde affatto il suo modello di business. Usa le informazioni di uso dei privati (anonime) per migliorare i suoi servizi e venderli a chi ha veramente capacità di spesa (aziende e enti pubblici), ma non rinuncia alla vendita di spazi mirati di pubblicità. Perché non pensare allora ad una vendita di spazi pubblicitari all’interno di Lens/Socratic, più o meno trasparente, come già accade nel caso del motori di ricerca? Perché non pensare ad una profilazione accurata degli studenti che usano Lens/Socratic per migliorare i suggerimenti di acquisto?

Sono tutte motivazioni lecite, o almeno non illegali. Ma il problema non è tanto la motivazione di Google, quanto il rischio che il tutto ci sfugga di mano. Bernard Minier, nel suo thriller “M. Le bord de l’abime” si diverte a giocare con il motto di Google, e immagina un chatbot intelligente il cui motto sia “Be evil”. Siccome il chatbot malevolo usa dei motori di machine learning sofisticatissimi nutriti di conversazioni, non è facile accorgersi in anticipo dei suoi scopi. Intelligente, oltre un certo limite, significa opaco. Come facciamo a sapere che i suggerimenti di Lens/Socratic non sono deviati da un bias di qualche tipo?

ma usata bene la nuova funzione di Google Lens può invece essere un aiuto vero a capire il procedimento: non darà infatti semplicemente il risultato del problema, ma mostrerà tutti i passaggi per arrivarci. Del resto i compiti copiati, o svolti da un genitore, o dal compagno di classe più bravo esistono da sempre: da oggi chi vuole imparare ha uno strumento in più, chi vuole copiare anche. A noi la scelta.

Ho molti dubbi su questo modo di presentare gli aspetti didattici della questione. Intanto: fino a quando dovremo andare avanti con questa storia dello studente pigro e furbetto che “tanto ci sarà sempre”, degli strumenti neutri, dei fini separati dai mezzi? E’ una favola vecchia. I fini si nutrono dei mezzi disponibili, i mezzi si costruiscono per i fini. Nel caso dei mezzi digitali, che vanno a toccare direttamente concetti e i modi di collegarli, non si può accettare una visione che li separi dai fini

Luna (e gli autori di Socratic) sembrano pensare che per imparare a risolvere un problema basti vedere i passaggi per la sua soluzione. Chi è studioso ci fa attenzione e impara, chi è ciuccio invece salta subito alla soluzione, la copia, e il docente naturalmente non si accorge di nulla. A parte il fatto che qualcuno dovrà pure occuparsi di aiutare anche gli studenti ciucci, ma chi ha detto che imparare significa solo seguire i passaggi mostrati da qualcun altro, che sia un docente o un compagno o un libro? E’ una modalità, è uno stile, che può andar bene in certi momenti ma non in altri, per certi studenti, per certe materie. E’ un pezzettino della strategia complessiva, nella migliore delle ipotesi. Dove è finita la pedagogia attivista e costruttivista? Dov’è la personalizzazione dell’apprendimento?
E’ una visione – tutto sommato comune – dell’insegnamento come esposizione dello studente alla verità, e deriva a sua volta dall’idea che ci sia una maniera giusta di fare le cose e che andare a scuola serva a imparare quella maniera. Ma qui siamo anni luce lontani dalla pedagogia degli ultimi cinquant’anni. Perché non dovrebbe essere più un mistero che come non c’è una sola traduzione possibile delle lettere a Lucilio, così non esiste una sola maniera di risolvere un’equazione. Magari il risultato sarà pure unico, ma la maniera di arrivarci no. La matematica non è solo logica, è anche cultura, e si insegna in modi diversi a seconda dell’epoca e del luogo. Chi ha provato a leggere un manuale di matematica in un’altra lingua si è già trovato di fronte a questo problema. Per non parlare ovviamente delle differenze in ambiti meno “duri”, come la storia, la geografia, la filosofia. Insomma, ci sono più modi di trovare una soluzione, e dipendono da aspetti culturali, personali (l’età e le competenze dello studente) e contestuali (è un esame? È un compito a casa? E’ il primo di dieci esercizi tutti uguali o l’ultimo?). Immaginare che un programma possa conoscere IL modo giusto di risolvere un problema per insegnarlo allo studente è soprattutto un errore culturale, direi filosofico. Ma è anche pericoloso, perché la maniera giusta, una volta cablata dentro un programma, rischia di restare rigidamente la stessa.

Non sono ragionamenti miei, e non sono recenti. Questa cosiddetta novità dell’insegnamento digitale risale agli anni ‘60, cioè – ogni tanto fa bene ricordarlo – sessanta anni fa. Il progetto PLATO (Programmed Logic for Automatic Teaching Operations) è un pezzo di storia dimenticato. Partito all’università dell’Illinois, poi preso in mano da un azienda produttrice di mainframe (CDC) con enormi aspettative non solo economiche ma sociali (democratizzare la cultura, portare alla formazione superiore anche i cittadini americano meno benestanti), finì per essere abbandonato per i costi. Non prima, però, di aver dato origine ad una miriade di progetti di CAI (Computer Assisted Istruction) e di CAS (Computer Algebra System) come MATHLAB, Reduce, Derive e Maxima.

Parallelamente, nasceva l’Intelligenza artificiale. Il primo programma in grado di dimostrare un teorema (Logic Theorist) è scritto da Newell, Simon e Shaw nel 1956; ma già nel 1964 Student, il software scritto da Daniel Bobrow per la sua tesi di PhD, era capace di capire e risolvere questo tipo di problemi:
“If the number of customers Tom gets is twice the square of 20% of the number of advertisements he runs, and the number of advertisements is 45, then what is the number of customers Tom gets?”
Bisogna poi aspettare gli anni ‘80 e la riduzione dei costi dei Personal Computer perché si affermino i primi Intelligent Tutoring System, in grado di mostrare i passi per la soluzione di un problema, di individuare gli errori dello studente e costruirne un profilo, e durante tutto il processo di interagire in linguaggio naturale. A partire dal 1988 si tengono regolarmente conferenze internazionali, come la International Conference on Intelligent Tutoring Systems, e nascono riviste scientifiche.

Stiamo quindi parlando di una “novità” vecchia di almeno trenta anni. E sono almeno venti anni che gli studiosi si affannano a sperimentare, valutare, confrontare, per concludere che il computer intelligente che sa risolvere i problemi non è una strada promettente. E’ limitata ad alcuni domini, è rigida, isola lo studente dal gruppo di pari, non tiene conto degli aspetti attivi dell’apprendimento. Molto meglio creare degli ambienti dove studenti e docenti possano interagire e costruire insieme pezzi di conoscenza, supportati dalla potenza digitale. Insomma la via aperta da PLATO non portava da nessuna parte.

L’annuncio ha rimesso sotto i riflettori una app che è forse la cosa migliore che Google può fare per noi: si chiama, appunto, Google Lens e consente di identificare quasi qualunque cosa semplicemente inquadrandola con il telefonino. Una pianta rara? Un animale misterioso? In pochi istanti Google confronta la foto appena scattata con tutte quelle sul web e propone la definizione migliore.

Migliore? Google Lens io ce l’ho da un po’, e in effetti all’inizio funzionava malino; l’ho riprovato ora inquadrando un oleandro in fiore, e tra le ipotesi che mi presenta c’è anche quella giusta, ma al terzo posto. Lens non ha modo di sapere quale sia la risposta corretta, può solo presentare un elenco di candidati, esattamente come fa il motore di ricerca più classico. Siamo noi che cliccando sul terzo elemento della lista (“Eccolo! È proprio questo”) forniamo un peso che verrà ricordato e usato per nutrire il motore di machine learning che sta dietro.

Funziona anche con i piatti di tutte le cucine del mondo, e con i luoghi, per esempio i monumenti, e con le scritte in moltissime lingue. E funziona con i vestiti: vedete una camicetta che vi piace? In un attimo ecco il sito dove comprarla al volo.

Bello, eh? Però il fatto che il sito dove comprarla al volo abbia pagato questa forma miratissima di pubblicità, e che quindi non sia necessariamente il migliore per noi, ma il migliore per il venditore e soprattutto per Google, dovrebbe essere tenuto presente.

Google Lens è il nostro motore di ricerca preferito alla sua massima potenza: scatti una foto e ti racconta una storia. In vacanza è un compagno di viaggio inseparabile. E’ come viaggiare con una guida in tasca.

Io uso diversi motori di ricerca, con preferenza per quelli che almeno dichiarano di non tracciare l’utente, come DuckDuck Go. Non so se Luna viaggi usando la guida del Touring oppure la Guide du Routard. Io ho fatto caso agli effetti collaterali di quest’ultima: a forza di raccomandare la spiaggetta seminascosta a cui si accede con un sentiero segreto ha contribuito a distruggere tanti piccoli paradisi, dove adesso si tengono raduni oceanici di adepti del Routard. E per fortuna non tutti la usano. Questo paradosso era stato già descritto da Francesco Antinucci nel 2011 con il suo “L’algoritmo al potere. Vita quotidiana ai tempi di Google” (Laterza). E’ paradossale avere un servizio che consiglia un buon ristorante poco affollato, ma più funziona e viene usato, meno è attendibile.

Con la riapertura delle scuole, lo sarà per gli studenti. Per diventarlo, Google ha incorporato in Lens un software chiamato Socratic, che riconosce i caratteri di un testo, compresa un’equazione, e applica l’intelligenza artificiale per proporre la soluzione.

Per essere precisi: Google ha comprato la startup che produceva Socratic. Una startup nata nel 2013 da un gruppo di ragazzi che credono nel potere dell’educazione, che fanno partire una comunità di insegnanti che tramite un sito web propone contenuti di qualità e li rilascia con licenza Creative Commons. Nel 2015 la startup ottiene un finanziamento da parte di tre venture capitalist e Socratic si dedica solo allo sviluppo di un app. La quale app, a partire da gennaio 2017, fa due cose ben diverse: la prima è la continuazione del sito, ma stavolta con un motore di machine learning che è in grado di suggerire i contenuti più rilevanti presi da Internet; la seconda è una funzionalità del tutto nuova, per cui l’app è in grado di riconoscere il testo di un’equazione, di rappresentarsela internamente e di risolverla usando la libreria Math.js e infine di presentare i passi per la sua soluzione usando un altro software opensource, Mathsteps. Che però non ha moltissimo di intelligenza artificiale, la matematica di solito è trattabile senza bisogno di particolari intuizioni ed è per questo che è da lì che inizia, storicamente, ogni tentativo di creare dei supporti digitali per l’apprendimento.

A marzo 2018 Google compra Socratic, ma rende nota l’operazione solo un anno dopo. L’app continua a chiamarsi Socratic ma ha accesso ai motori di machine learning di Google; contemporaneamente, offre i suoi servizi anche alle altre app della costellazione Google, come Lens (per ora). Nel frattempo, uno dei fondatori, Shreyans Bhansali, resta come engineering manager, mentre l’altro, Chris Banegal, entra a far parte dei visionari che lavorano nell’Area 120, l’incubatore interno di Google.

Insomma la solita storia: non c’è posto per i piccoli. O muoiono, o vengono comprati. Sapendolo, è chiaro che i ragazzi che dicono di voler fare una startup in realtà vogliono solo fare abbastanza rumore da poter interessare una multinazionale e poi passare ad altro.

Il prossimo passo, sarà la trasformazione di un testo scritto a mano, in bella calligrafia, in un testo digitale.

Il riconoscimento della scrittura manuale è in realtà un tema piuttosto vecchio, e almeno dal 1990 esistono delle soluzioni commerciali. Probabilmente diventerà meno significativo man mano che la scrittura manuale verrà abbandonata. Ma la storia di reCAPTCHA, il servizio nato all’università Carnegie Mellon con lo scopo di migliorare le competenze dell OCR (Optical Character Recognition) dovrebbe essere di insegnamento. Siccome c’erano dei testi antichi su cui gli algoritmi di riconoscimento esitavano, i ricercatori della Carnegie Mellon pensarono di far ricorso all’esperienza umana. Così inserirono i caratteri su cui il software faceva cilecca nei sistemi di accesso ai servizi dell’università. Siccome gli umani in genere se la cavano piuttosto bene in questi compiti, le scelte degli studenti servivano ad accrescere le competenze dell’algoritmo di riconoscimento dei caratteri. Funzionò talmente bene da valer la pena di crearci una startup; e la startup fu puntualmente comprata da Google nel 2009.

Finito lo stupore, restano due riflessioni. La prima riguarda i passi da gigante che sta facendo l’intelligenza artificiale applicata alle immagini: il tema del riconoscimento facciale automatico nelle indagini di polizia, dei limiti e dei rischi di questa tecnologia, diventa sempre più urgente. La seconda riguarda Google, che cos’è davvero Google per noi utenti. Molti anni fa in un saggio sulla rivoluzione digitale, Alessandro Baricco parlò per la prima volta di una generazione che “respirava il mondo con le branchie di Google”, che aveva insomma un altro modo di apprendere e relazionarsi. Era una definizione molto efficace.

Il riconoscimento dei volti come strumento di identificazione massiccia al servizio del potere politico è effettivamente un tema caldo. Fa parte della discussione generale sulla tecnologia neutra a cui accennavamo prima. Luna però preferisce dirigersi verso la questione finale, quella del “senso di Google.” Piuttosto che citare “I Barbari” di Baricco, il quale è un attento orecchiatore di discorsi più che uno studioso in presa diretta sulla realtà, meglio dirigersi sul lavoro del collettivo Ippolita e sul loro “Luci e Ombre di Google. Futuro e passato dell’industria dei meta dati” (Feltrinelli, 2007). Ma è vero che tutti noi, giovani e meno giovani, facciamo molta fatica a fare a meno di Google (o di Facebook, di Microsoft, di Amazon) e anzi non vediamo proprio perché dovremmo privarcene. E’ vero che è difficile vedere qualcuno che usa un sistema operativo diverso da Windows o che acquista un libro sul sito della casa editrice invece che farlo su Amazon. E’ difficile vedere qualcuno che in un browser digita una intera URL quando basta scriverne una parte nella barra degli indirizzi (che in realtà è il campo di ricerca). Il punto non è solo che usiamo le branchie di Google per respirare, ma che stiamo dentro un acquario.

Oggi invece Google Lens ci mostra per la prima volta “il mondo con gli occhi di Google”: l’infinito catalogo di immagini che memorizza e che mette a disposizione quando gli chiediamo che pianta è quella che abbiamo davanti. Lens è il modo migliore per far capire a tutti che Google ha creato una copia digitale del mondo e grazie a quella ha tutte le risposte possibili.

Mi pare una semplificazione eccessiva, e peraltro dimentica il (fallito) progetto dei Google Glass, gli occhiali per la realtà aumentata. Che il progetto di Google sia sempre stato quello di creare una copia digitale del mondo, non c’è dubbio. Che il suo scopo iniziale fosse quello di fornire tutte le risposte alle domande, anche. Ma di tempo ne è passato, Google non è solo motore di ricerca, e il suo scopo non è solo quello di fornire risposte, ma quello di fornire una quantità impressionante di servizi, principalmente alle imprese e agli enti pubblici. Questi servizi sono sempre all’avanguardia e in generale di alta qualità, grazie alla raccolta di dati e soprattutto alla raccolta di giudizi, di azioni, di scelte umane. In sostanza, usando gratuitamente i servizi di Google noi forniamo il combustibile che brucia nelle caldaie di Google. Siamo noi che lo rendiamo sempre più potente e rafforziamo il suo monopolio. Google, del tutto legittimamente, ci ringrazia continuando a fornirci servizi sempre migliori. Dal suo punto di vista, è uno scambio win-win.
Il problema è che c’è un effetto collaterale piuttosto importante: l’accumulo di troppe informazioni in mano ad un solo soggetto, con enormi rischi relativamente alla privacy degli utenti, e la possibilità che queste informazioni e i processi che le utilizzano diventino sempre più opachi e quindi fuori controllo.

Usare questi servizi gratuiti ci mette anche in una posizione sempre più asimmetrica, sempre più rischiosa rispetto al futuro. Per capire perché, provate a immaginere un giorno in cui Google decidesse di interrompere i servizi di posta. Fantascienza? Allora andate a leggere su Wikipedia la lista dei servizi gratuiti di Google iniziati e poi interrotti, con cancellazione dei contenuti relativi.

In realtà la copia digitale del mondo, come tutte le copie digitali (si pensi alla musica, nel passaggio dal vinile a Spotify) si perde per strada qualcosa: lascia fuori qualche pezzettino di informazione. Semplifica. Questo vuol dire che il mondo reale assomiglia moltissimo alla sua copia digitale, ma è molto più complesso e ricco. Insomma, non è tutto dentro Google Lens: faremmo bene a non dimenticarlo mai.

Su quest’ultimo passaggio posso dire di essere interamente d’accordo. La numerizzazione, la linearizzazione della realtà – che, ricordiamocelo, non è partita con Google, e neanche con Turing, ma con Galileo – è molto, molto efficace; ma ci costringe ad accettare dei limiti pratici. Non possiamo memorizzare e riprodurre tutte le sfumature di colore di un fiore, e nemmeno la forma di un sasso o il suono di una voce; ma possiamo avvicinarci abbastanza perché un occhio e un orecchio umano non siano in grado di accorgersene. La stessa cosa avviene nella categorizzazione delle persone, la profilazione: non possiamo avere una categoria per ogni persona, e quindi forziamo un po’ i valori mettendo più persone nella stessa categoria. Poi prendiamo delle decisioni sulla vita di quella persona in base alle categorie in cui è stata inserita, come se quella persona coincidesse col suo profilo, e questo è meno bello.
Questo, alla fine, è il rischio che sta sotto la digitalizzazione dell’universo. Qualcuno usa una copia parziale e opaca del mondo per prendere decisioni sulla vita di qualcun altro.



Ancora sugli algoritmi

Feb
07

Tornano di moda, arrivano sulle prime pagine dei giornali, sono oggetto di approfondimenti (come questo sul Sole 24 ore di qualche mese fa) e di libri (come questo di Mario Pireddu appena uscito). Quanto sarebbe stato felice il vecchio Abū Jaʿfar Muḥammad ibn Mūsā al-Khwārizmī, matematico, geografo, astronomo persiano del IX secolo, autore di un libro famosissimo, tradotto in Latino col titolo di “Algoritmi de numero Indorum” (generando un po’ di confusione tra il nome dell’autore e l’argomento).
Però gli algoritmi di oggi non hanno a che fare con l’algebra ma con l’informatica: si tratta della definizione di una procedura in passi elementari, così semplice che la può eseguire anche una macchina. Ci sono esempi famosissimi: l’algoritmo detto “Crivello di Eratostene” per trovare tuttii numeri primi, oppure il Bubblesort per ordinare una lista.

Gli algoritmi sono quella cosa che, se espressa in un linguaggio di programmazione, dà origine ad un programma. Per esempio, questo algoritmo:

  1. Ripeti per sempre l’istruzione seguente
  2. Scrivi “CIAO” sullo schermo

potrebbe essere rappresentato così:

 

 

 

e potrebbe essere scritto in BASIC così:

10 PRINT "CIAO"
20 GOTO 10

Ma nell’uso attuale (almeno di questi ultimi dieci anni, da quando in Italia è uscito “L’algoritmo al potere. Vita quotidiana al tempo di Google” di Francesco Antinucci, Laterza, 2009) algoritmo ha un’accezione ancora più ristretta. Sono chiamati così quei programmi che:
a) raccolgono dei dati relativi ai comportamenti delle persone, tipicamente online
b) li  utilizzano per costruire un profilo delle stesse persone
c) usano il profilo per fare, o supportare, delle scelte

Ci sono vari punti oscuri: la liceità della raccolta dei dati all’insaputa dell’utente, la maniera in cui viene costruito il profilo e soprattutto l’utilizzo del profilo per scopi illeciti (per esempio, aumentare un premio assicurativo o rifiutare una candidatura per un posto di lavoro).

Ora non entriamo nella discussione sui guadagni reciproci dell’utente e del fornitore di servizi, sulla necessità di policy di trasparenza e cancellazione, sulla possibilità reale di non utilizzare quei servizi. Probabilmente il tema si incrocia con quello del ritorno in auge dell’Intelligenza Artificiale, dei robot, dei big data, del machine learning, in un allarme generale sull’imminente presa del potere da parte delle macchine. Algoritmo è solo un modo diverso di dire “automatismo fuori dal controllo umano”.  Ma allora è proprio l’uso del termine algoritmo che è fuorviante.

Qualsiasi programma – dal client di posta elettronica al foglio di calcolo – contiene migliaia di algoritmi, o meglio può essere letto attraverso la lente dell’algoritmo che implementa, esattamente come un proposizione in una lingua naturale può essere letta attraverso le strutture sintattiche di quella lingua. Gli algoritmi non abitano un loro mondo a parte, non hanno uno statuto speciale. Per essere spiegati, raccontati, analizzati, devono essere espressi anche loro in qualche linguaggio (anche con fumetti, come in questo manuale introduttivo). E’ vero che per mostrare che due programmi, magari scritti in due linguaggi diversi, fanno la stessa cosa nello stesso modo si dice che implementano lo stesso algoritmo e si descrive questa parte comune con un terzo linguaggio  più generale degli altri due. Linguaggio che può essere più o meno formale . Ma insomma, gli algoritmi non sono l’anima dei programmi, non esistono prima del programma o in un universo separato, ma sono solo un modo per parlarne da un certo punto di vista (quello della correttezza, dell’efficienza). In un articolo di qualche tempo fa mi interrogavo sul senso di questa visione platonica, che è talmente presente nella nostra cultura che è difficile esserne coscienti.

E quindi parlare di algoritmo invece di programma è una raffinatezza di cui francamente non capisco il vantaggio. E’ come dire: non metto sotto accusa quel libro, ma le idee che ci sono dentro. Le quali idee però (ammesso che preesistessero alla stesura del libro) sono state estratte e  riassunte da qualcuno dopo aver letto il libro.

Peraltro, nei casi sopra citati, il punto non è l’esistenza di un algoritmo (è ovvio che ci sia, altrimenti non ci sarebbe nemmeno il programma) e nemmeno la natura dell’algoritmo, ma i pesi che gli vengono forniti; pesi stabili da persone umane, non da macchine. Per esempio, il fatto che voi leggiate questo articolo  potrebbe avere un peso negativo, o comunque legato alla reputazione del suo autore, nella costruzione e aggiornamento del vostro profilo da qualche parte. Questo è deciso da qualcuno, non da un algoritmo, il quale si limita a comporre il profilo utilizzando i pesi forniti e applicandoli.

Parlare di algoritmi cattivi ha senso tanto quanto parlare di strutture sintattiche malvage. Gli algortmi possono essere valutati, ma in termini di efficienza, scalabilità, robustezza, magari eleganza. Prendersela con loro per il cattivo comportamento dei consigli di amministrazione delle società che offrono serivizi gratuiti online – in cambio dell’accesso libero a dati che poi rivendono – mi sembra un po’ ingiusto nei confronti del vecchio al-Khwārizmī e francamente anche dell’informatica.