Quest’anno l’Unesco ha deciso di dedicare la Giornata internazionale dell’educazione al tema dell’Ai, cioè l’intelligenza artificiale. Lo scorso anno era toccato alla pace: due temi fondamentali per la nostra epoca e che come tali hanno - o dovrebbero avere - un impatto molto forte sull’istruzione, se vogliamo che questa serva a “formare” cittadini consapevoli. Ne abbiamo parlato con Teresa Numerico, che insegna Logica e filosofia della scienza all’università Roma Tre, esperta di intelligenza artificiale, “avendola tra l’altro cominciata a studiare - ci dice - ben prima che andasse di moda”.

La prima domanda è preliminare a tutto il ragionamento che vorrei fare. In tema di Ai lei è tra gli “apocalittici” o gli “integrati”? Pensa cioè che questa tecnologia sia un pericolo o una panacea?

Direi né l’uno né l’altra. L’intelligenza artificiale è un insieme di tanti sistemi che fanno cose diverse. Ci sono sistemi di Ai che, ad esempio, servono a far risparmiare l'acqua in luoghi dove l’acqua scarseggia: nessuno penso potrà dire che questo non è utile al Pianeta e al miglioramento delle condizioni di vita. Generalmente non sono queste cose che hanno reso famosa nel bene e nel male l’Ai.

E quali sono?

Gli aspetti più controversi stanno nel fatto che l’Ai non è solo strumento tecnologico, ma socio-tecnico. Non solo macchine, cioè, ma strumenti che integrano macchine e persone che prendono decisioni a vari livelli. Se pensiamo appunto all’educazione, i sistemi più problematici sono quelli che per esempio misurano dal volto degli studenti il loro grado di attenzione, già utilizzati in Cina, o altri - questi usati in anche Occidente - che in base ad alcuni parametri valutano il rischio di abbandono scolastico di uno studente.

Scenari da "Minority Report”…

Sì e così facendo potrebbero inchiodare le ragazze e i ragazzi a un destino come se questo fosse già dato. Questi strumenti sono pericolosi perché in realtà presumono di conoscere il futuro senza dare garanzie di saperlo davvero fare e in questo modo rischiano però di determinarlo. Poi ci sono gli strumenti dell’Ai generativa, ChatGPTe tanti altri, che a partire da prompt, da richieste che gli si fanno, sono in grado di produrre testi, immagini e ora anche video. E qui in tema di educazione la questione si fa più complessa.

Qual è il suo giudizio in questo caso?

Gli usi che se ne possono fare sono due. Da un lato l’Ai può aiutare i docenti a preparare le lezioni e, anche se in una maniera un po’ standard, lo fa abbastanza bene. Riguardo all’uso che ne possono fare gli studenti, si pone una questione preliminare: quella dell’età. È molto importante che i ragazzi imparino prima a leggere e scrivere e poi si confrontino eventualmente con questi strumenti in maniera critica, sapendo cosa aspettarsi o non aspettarsi da essi. Non è scontato, tanti dati sull’analfabetismo primario o di ritorno testimoniano che questa capacità si stia perdendo, anche tra gli adulti, e metà popolazione mondiale non sa, appunto, né leggere né scrivere. Insomma: sono strumenti utili se li si usa con spirito critico, se rimangono pienamente nelle nostre mani e non ci si affida ad essi completamente, perché altrimenti si rischia di consegnarsi a chi prepara e gestisce i dispositivi. Si tratta, come dicevo, di sistemi socio-tecnici e le risposte che offrono sono orientate culturalmente, ideologicamente: non sono la “verità”.

Mi pare di capire che si tratta di novità rispetto a tutte le grandi innovazioni tecnologiche che l’essere umano ha attraversato nei secoli…

Sì, perché per la prima volta ci interfacciamo con dispositivi che maneggiano il linguaggio come gli esseri umani e questa è una novità assoluta: ci dà, infatti, l’illusione di parlare con qualcosa che sembra come noi ma che in realtà non lo è. Quando interagiamo con ChatGPT non lo stiamo facendo con una persona, ma con una macchina che è stata semplicemente addestrata su una quantità enorme di testi e di dati. Le risposte che ci dà restituiscono una sorta di vox populi, una media di tutto ciò di cui quel sistema è stato riempito, ma questo non equivale a conversare con una persona. A scuola è un problema: uno studente che chiede a una macchina di fare il proprio lavoro non si rende conto che così facendo si trasforma in una sorta di ventriloquo di un sistema che non controlla, e che comunque tende ad appiattire il sapere. Il punto chiave per me è che l’Ai può essere molto utile nell’educazione, a patto che se ne conoscano i limiti e che si rimanga in posizione critica. Personalmente sono fiduciosa che ciò possa accadere. Nel passato è già avvenuto.

In che senso?

Pensi alla televisione o alle persone che al cinema vedendo per la prima volta sullo schermo un treno che entrava in stazione si spaventavano perché credevano li travolgesse. All’epoca si trattava di un contesto simulativo prima ignoto, che bisognava imparare a maneggiare. Tutti i media ce l’hanno e vale anche per strumenti come ChatGPT, con un patto percettivo alternativo, nuovo, a cui dobbiamo abituarci prendendone le misure e grazie al quale possiamo cogliere i vantaggi evitando i pericoli.

Il direttore generale dell’Unesco, Audrey Azoulay, ha contestualmente invitato i governi a investire per formare su questa tecnologia gli insegnanti…

Ed è giusto. Per me la prima cosa da fare è un grande lavoro di formazione degli insegnanti che devono spiegare ai ragazzi che non devono fidarsi ciecamente di questi strumenti, ma sviluppare uno spirito critico che purtroppo mi pare che ultimamente nella scuola si sia un po’ perso. Le risposte che si chiedono ai ragazzi sono spesso di tipo nozionistico e tutto ciò non servirà loro perché queste nozioni “pure” le potranno chiedere ai sistemi, invece le capacità critiche, se non le hanno apprese in questo contesto, non le potranno più sviluppare.

E questo però paradossalmente li rende più “proni” all’intelligenza artificiale nel senso deteriore di cui parlavamo.

A questo aggiungerei che per fare una buona scuola bisogna sapere quale idea si ha del futuro, dove si vuole andare e per questo serve appunto uno spirito critico. Occorre riconoscere che la nostra vista è una vista soggettiva, e che quindi ci sono una pluralità di punti di osservazione di cui si deve tener conto per guardare o riconoscere uno stesso fenomeno. Tutto ciò l'intelligenza artificiale lo cancella, perché dà una sola risposta. Mentre la conoscenza è affidabile proprio perché è sempre parziale e noi possiamo intervenire nei processi, controllarla ed eventualmente emendarla. Si arriva alla conoscenza attraverso un percorso complesso, se invece prendiamo una serie di contenuti, li shakeriamo e tiriamo fuori una risposta - come fanno appunto i sistemi di Ai generativa - abbiamo solo una simulazione di quel processo. Ma se non ce ne rendiamo conto è pericoloso, perché si genera l’illusione di ottenere risposte adeguate in maniera più rapida ed efficace. Un po’ come nell’esempio che facevamo prima del treno che nel film sembra arrivare e travolgere la platea entrando in stazione, ma in realtà non lo fa: si tratta soltanto di una rappresentazione.

La scuola ha insomma di fronte un compito enorme…

Sì, gli insegnanti si sentono sopraffatti da questa novità e spesso o la respingono o la accolgono in blocco. E invece bisogna capire che siamo in una fase in cui stanno cambiando i meccanismi di validazione delle conoscenze, e questo non sempre in meglio. Banalmente con l’Ai è difficile sapere se un compito scritto assegnato a casa, magari un piccolo saggio (prassi molto diffusa soprattutto nei paesi anglosassoni) sia stato effettivamente svolto da uno studente. Soprattutto la scuola deve lavorare per impedire che si costruisca un popolo di creduloni, pronti ad assumere qualsiasi cosa gli arrivi, non solo dall’Ai ma ovviamente anche degli insegnanti che anch'essi o esse devono mettersi in discussione. Serve una scuola che non sia fondata sullo schema “ti faccio una domanda e se non rispondi correttamente ti metto un voto basso”. Non è facile, tra l’altro le misure di Valditara vanno nella direzione opposta: alimentano un’idea rigida e stantia di sapere che paradossalmente, pur essendo vecchia, è collusiva con la possibilità di costruire persone che possano essere completamente governate dai sistemi di Ai, in assenza dell’esercizio critico per riconoscerne i limiti e le capacità.

Leggi anche