L’impatto dell’intelligenza artificiale sulle nostre vite sarà imponente, quale forse neanche riusciamo a immaginare, investendo la democrazia, il lavoro, i diversi giacimenti culturali. Ci saranno innovazioni importantissime e positive (un settore per tutti: la salute), ma anche alcuni rischi. Per questo serve una grande “alleanza morale” sovranazionale degli Stati per governarla, a partire dai finanziamenti per la ricerca in cui il pubblico deve avere un ruolo fondamentale.

Ed è una contingenza particolarmente sfortunata che l’avvio di questa grande trasformazione tecnologica avvenga esattamente in un momento storico in cui le democrazie sono (o sembrano) meno salde, non in grado di tessere quella rete di alleanze, saldata da forti valori e princìpi di libertà e giustizia, che sarebbe ora molto più che necessaria.

È questo il succo di una densa e lunga conversazione che abbiamo avuto con Emilio Campana, direttore dipartimento Cnr di ingegneria, Ict, energia e trasporti, a poche ore dall’iniziativa “Intelligenza artificiale: democrazia e lavoro” organizzata a Bologna da Cgil, Fondazione Di Vittorio e Ires.

Leggi anche

Campana tiene a fare una premessa: “Esistono tante intelligenze artificiali. C'è un'intelligenza artificiale utile per la scienza, c'è un filone di ricerca che si pone l'obiettivo di rendere l'intelligenza artificiale affidabile, uno che si occupa degli aspetti legali ed etici, un altro che riguarda la sostenibilità ambientale ed energetica della stessa, e un altro ancora che si occupa di un'intelligenza artificiale centrata sull'uomo e in grado di sviluppare sistemi per ‘complementare’ e aumentare le capacità umane, sia degli individui sia a livello collettivo”.

Quindi, aggiunge, “dalla semplice ricerca iniziale di algoritmi che potessero funzionare, visti anche i grandi investimenti messi in campo, i canali di ricerca si sono moltiplicati e aperti, come un fiume che, quando sta per arrivare al mare, forma un delta, spezzandosi in rami più piccoli. In questo momento il mare davanti a noi è così vasto e sconosciuto che bisogna diffidare di chi fa facili previsioni su ciò che potrà accadere. L’unica cosa certa è che l’impatto dell’IA equivarrà a quello di uno tsunami”.

Cominciamo dalle basi… Quali sono le cose necessarie per uno sviluppo positivo dell’IA?

Un tema fondamentale è quello di avere un'intelligenza artificiale sicura e affidabile a beneficio dell'umanità. E questo richiede una standardizzazione, un'architettura appropriata. Ci devono essere algoritmi robusti e che siano in grado di lavorare con dati veri ("in-the-wild”), non trattati prima e resi digeribili. Ci sono anche altri elementi importanti, ad esempio la cybesecurity e la “misura dell’incertezza”.

Cosa significa?

Significa che bisogna sapere quali sono i margini di errore, perché un fraintendimento comune è quello di ritenere "perfetto” tutto ciò che viene dall’IA. Aggiungerei anche l’importanza dell’accuratezza dei dati: la rete neurale è un frullatore, se si mette frutta non di qualità, il frullato non sarà eccezionale, ma l’utilizzatore rischia di non saperlo mai. Quindi chi mette i dati a disposizione deve seguire dei protocolli.

Prima citavi il tema della sostenibilità ambientale dell’IA. Puoi spiegarcelo meglio?

Personalmente avevo iniziato a occuparmi di intelligenza artificiale 30 anni fa, anche se poi ho cambiato settore: ebbene, qualche passo avanti gli algoritmi lo hanno fatto ma restano sostanzialmente più o meno gli stessi. Sono invece cambiate radicalmente la velocità dei computer e la quantità di dati che possono essere immessi e analizzati. Tutto ciò consente di addestrare le reti – il cosiddetto machine learning – in maniera inimmaginabile fino a pochi anni. Il problema però è che questi Data Center consumano una quantità di energia e acqua sterminata. Secondo stime dell’International Energy Association ogni 30/50 domande che io pongo a Chat Gpt viene consumato circa mezzo litro di acqua potabile: proviamo ad immaginare su scala globale ciò che questo significa. Tutto questo è sostenibile? Anche in questo caso non abbiamo certezze, gli studiosi stessi si dividono. E qui entra in gioco la ricerca: bisogna creare algoritmi più efficienti che hanno bisogno di meno dati per addestrare le macchine.

Hai toccato un tema cruciale. Quello dell’addestramento delle macchine. L’IA apprende secondo dati che siamo noi a fornirgli, un’operazione umana che come tale non è neutra…

Sì questo è un tema culturale di grande rilevanza. Segnalo una cosa importantissima che stiamo finalmente facendo come Paese: come è noto la vera rivoluzione in corso è quella dell’IA generativa (quella che è in grado di generare testi, immagini, video, musica o altri media in risposta a delle richieste, ndr) e anche in questo caso servono tanti dati, capacità di calcolo e buoni algoritmi. Diversi gruppi in Italia stanno finalmente lavorando (utilizzando Leonardo, presso il Cineca di Bologna, il secondo calcolatore d’Europa per potenza di calcolo) all’“addestramento” di Large Language Models italiani, basati su dati (la nostra letteratura!) e modelli linguistici italiani, per costruire AI generativa.

Vi accuseranno di sovranismo…

Ovviamente non si tratta di questo. Se tu addestri un modello come Chat Gpt con termini solo inglesi, vorrà dire che i riferimenti, non solo linguistici ma anche culturali e sociali, saranno quelli angloamericani. Questo vuol dire uccidere la nostra cultura il che, secondo me, rispetto all’IA, è un rischio paragonabile per gravità a quello della perdita dei posti di lavoro: significherebbe la lenta scomparsa delle culture nazionali alternative al mainstream americano: un’omologazione pericolosissima. Lingua e pensiero unico non vanno bene.

A proposito di posti di lavoro, cosa si può prevedere? Su questo tema sei tra gli “apocalittici” o tra gli “integrati”?

Io penso che sarà comunque uno tsumani. Da cui ovviamente ci si può anche salvare, se si è bravi – o fortunati – aggrappandosi a un albero che resiste. Nessuno può fare una previsione di quale sarà il settore più travolto o se tizio o caio perderà il posto di lavoro. E siamo solo all’inizio. Cinque anni fa avresti pensato di dover fare un’intervista su questo tema?

Però non tutti gli esiti saranno necessariamente negativi…

Certamente no. Nella medicina ci sarà un impatto molto positivo, perché si potranno progettare nuove cure, nuovi farmaci. Si parla molto di terapie costruite specificatamente per ogni paziente, e probabilmente si potrà rinunciare del tutto ai test sugli animali: potremmo anche avere farmaci meno costosi, lo Stato potrebbe imporsi su questo attraverso trattative con le aziende farmaceutiche. C’è comunque un rischio: il potere della IA sarà nelle mani di grandi Stati e delle grandi industrie e non nelle mani dei singoli cittadini. Questo è un aspetto sottovalutato. E vale un po’ per tutto.

E qui tocchiamo un altro nodo cruciale: quello dell’impatto dell’IA sulla democrazia…

Sì, è un problema serio. In questo momento relativamente alle tecnologie digitali e on-line quello che funziona peggio è sicuramente il cosidetto e-voting, il voto elettronico, che è facilmente modificabile. Quindi se andiamo verso un modo di intendere la democrazia che si sviluppa attraverso la partecipazione non in presenza ma a distanza delle persone, questo rappresenta certamente un problema. Così come è un problema per la democrazia il fatto che con l’IA potremmo lanciare campagne basate su dati falsi, visto che non sarà semplice riconoscere l’autenticità di un articolo o di una fotografia, o se, ad esempio, una persona cinque anni fa aveva veramente detto quella cosa li. Un tempo le fotografie rappresentavano una certezza, persino più del testo scritto. Ora non sarà più così: non abbiamo semplicemente imparato a truccarle ma a generare realtà diverse.

Come si può evitare una situazione così pericolosa?

È necessario un patto di integrità tra i soggetti. Ad esempio per le tecnologie genetiche si è arrivati a protocolli che vietano di fare certi esperimenti. Non tutto ciò che è pericoloso si riesce a evitare, basti pensare agli esperimenti condotti dalla Neuralink, una start-up co-fondata da Musk nel 2016 che afferma di aver sviluppato un impianto cerebrale progettato per consentire agli esseri umani di utilizzare i propri segnali neurali per controllare le tecnologie esterne. È un settore affascinante, ma che pone molte questioni etiche e legali alle quali non è semplice dare risposte.

E cosa cambia, rispetto a questo, con l’IA?

Con l’IA sarà tutto un po’ più difficile, perché mentre per fare esperimenti di neurofisiologia e di tecnologie neurobiologiche hai bisogno di grandi investimenti (laboratori, strumentazione, sperimentazione, ecc.), con l’IA è tutto più semplice: un hacker, un “cellula dormiente” di un gruppo terroristico, non saranno facilmente in grado di impiantare un microchip nel cervello di qualcuno, ma con un buon computer sono in grado sviluppare – con relativa facilità • varianti di algoritmi di IA pericolosi e i controlli possono essere evitati facilmente.

Però anche in questo caso il progresso scientifico e tecnologico ci potrebbe aiutare…

L’unica possibilità è lo sviluppo di tecnologie quantistiche per fare cybersicurezza e crittografia, ma su questo siamo ancora molto indietro. In sintesi: regolamentare lo sviluppo e l'uso dell'IA è fondamentale, e questa regolamentazione dovrà riguardare macroscopicamente Stati e grandi imprese. Certo, a “grana fine”, sarà più difficile per i singoli utenti difendersi, perché è molto facile accedere all'uso di algoritmi e dati da parte di chicchessia con cui manipolare fatti e opinioni. Mentre noi dovremo fare tutto ciò che è possibile per distinguere ciò che è vero da ciò che falso.

Non vorrei risultare enfatico, però mi pare evidente che, vista l’attuale fragilità delle istituzioni democratiche nazionali e le proporzioni dei fenomeni di cui parliamo, ci sarebbe bisogno di un grande patto globale che metta d’accordo e garantisca tutti, un po’ come nel secondo dopoguerra…

È così, hai centrato la questione. Alla base di questo sarebbe necessario un ruolo e un prestigio che ormai le Nazioni Unite non hanno più. Le istituzioni sovranazionali sono tutte quante sotto attacco: basti pensare all’Unione europea o anche all'Organizzazione mondiale del commercio: siamo tornati ad una stagione di nazionalismi e di dazi. È una situazione complessa perché le istituzioni hanno perso autorevolezza e i movimenti antisistema sono in grado di utilizzare l’IA per i loro scopi.

Da questo punto di vista anche il ruolo del pubblico è fondamentale.

Sì. La collaborazione con il privato è importantissima, ma il pubblico deve essere sempre un passo avanti: per questo la ricerca sull’IA va finanziata dagli Stati. Le risposte che daranno le istituzioni scientifiche pubbliche saranno gli anticorpi rispetto a tutto quello che ci siamo detti finora. Ma è il momento di sbrigarsi, si deve fare subito perché siamo già in ritardo. Ora con il Pnrr le risorse ci sono: ma il Pnrr finisce, mentre l’IA è qui per restare.

Leggi anche

Lavoro

Serve un nuovo patto sociale

Serve un nuovo patto sociale
Serve un nuovo patto sociale