PHOTO
I temi relativi all’utilizzo di soluzioni di intelligenza artificiale sono ormai di assoluta attualità. Nei giorni scorsi è stato presentato il Programma strategico per l’Intelligenza artificiale (IA) 2022-2024 approvato dal Consiglio dei ministri e frutto di un lavoro che ha coinvolto il ministero dell’Università e della ricerca, il ministero dello Sviluppo economico e il ministro per l’Innovazione tecnologica e la Transizione digitale.
Si tratta di un programma di durata triennale suddiviso in 24 linee di intervento, mirate ad aumentare i finanziamenti per la ricerca, rafforzare le competenze e incentivarne le applicazioni per imprese e Pubblica amministrazione.
Nell’individuare i punti di forza del sistema italiano, nel documento di programmazione parimenti se ne indicano le debolezze: frammentarietà della ricerca, insufficiente attrazione di talenti, un consistente divario di genere (solo il 19,6 per cento di donne tra i ricercatori) e la limitata capacità brevettuale.
Il mercato privato dell’IA ha in Italia ha un valore di 300 milioni di euro (2020) che è pari però al solo 3 per cento del mercato europeo.
Le principali soluzioni utilizzate in Italia nel mercato privato sono: l’intelligence data processing, il natural language processing, i sistemi di suggerimento e le automazioni di processi ripetitivi, i chatbot e gli assistenti virtuali. Ma il tasso di dotazione di soluzioni di IA delle imprese italiane (35 per cento) è inferiore alla media Ue (43 per cento).
Nel settore pubblico i servizi online non risultano ancora particolarmente utilizzati e si prevede una forte potenzialità di utilizzo di soluzioni IA legate ai processi di digitalizzazione.
L’Italia, come sappiamo, spende in ricerca solo l’1,45 per cento del suo prodotto interno lordo (Pil), contro il 3,17 per cento della Germania e il 2,19 per cento della Francia, mentre spende in ricerca e sviluppo 25,9 miliardi di euro l’anno, contro i 109,5 della Germania e i 53,1 della Francia. Il personale dedicato in Italia è di 5.150 unità, contro le 8.500 della Germania e le quasi 7 mila della Francia. All’Italia, da ultimo, mancano campioni digitali globali nei settori hardware, software e integrazione.
Nel programma sono state individuate le fonti di investimento europee e nazionali per sostenere ciascuno degli interventi previsti. Per il governo la ragione sottesa alla redazione di questo programma è l’aver individuato l’IA come area strategica, il che comporta la necessità di agire per la sua promozione nell’ambito delle azioni previste, all’interno del continente europeo che ha destinato ingenti risorse al settore.
I principi guida sono ovviamente in linea con i principi individuati nella Strategia europea sull’IA: l’IA italiana è una IA europea; l’Italia sarà un polo globale di ricerca e innovazione dell’IA; l’IA italiana sarà antropocentrica, affidabile e sostenibile; le aziende italiane diventeranno leader nella ricerca, nello sviluppo e nell’innovazione di IA; le PA governeranno l’IA e governeranno con l’IA.
Tra i settori ritenuti prioritari nel programma sono compresi quelli manifatturieri, agroalimentare, sanitario, culturale e turistico, insieme a quello informatico, per la sicurezza del Paese e ambientale.
Si prevede anche un piano educativo rivolto ai cittadini e risulta centrale il tema della implementazione di utilizzo di IA nella PA. In particolare gli interventi nella PA sono volti alla creazione di infrastrutture dati per sfruttare in sicurezza il potenziale dei big data che genera la stessa PA: si programma anche di supportare le start up che offrono soluzioni basate sull’Intelligenza artificiale capaci di risolvere criticità del settore pubblico. Una applicazione specifica è prevista per città, aree e comunità intelligenti.
Per governare tutti questi processi sarà costituito un gruppo permanente all’interno del Comitato interministeriale per la Transizione Digitale.
Come abbiamo avuto modo di declinare chiaramente nel recente Manuale edito da Ediesse dedicato proprio all’IA nel suo rapporto con il lavoro, queste implementazioni tecnologiche non solo devono necessariamente essere “sotto controllo umano” e porre al centro la persona ma, laddove le decisioni di implementazione hanno impatto sul lavoro, sui luoghi, sulla vita delle persone, queste non possono essere prese da un singolo attore “in autonomia”; vi è necessità di un confronto tra le parti portatrici di interessi per definirne la progettazione, le finalità ed i contenuti.
Di certo perché si abbia un’applicazione corretta dei sistemi di Intelligenza artificiale, a partire dallo spazio nazionale, è necessaria una coerenza di fondo con i principi costituzionali, con le norme di tutela collettive e dei singoli e con la capacità di mettere al centro di ogni ragionamento il rispetto della dignità umana. Da queste considerazioni discende, in modo sempre più netto e improrogabile, una necessità di contrattazione anticipatoria, capace di prevenire le possibili conseguenze discriminatorie di decisioni algoritmiche che possono avere conseguenze rilevanti sulla vita dei singoli e sulla collettività.
Se la tecnologia digitale è per sua natura pervasiva, le applicazioni di IA pongono infatti problemi di natura etica, di responsabilità, e dunque è ovvio il richiamo a quei principi che, correttamente, il programma declina. Ma la reale rispondenza a quei principi deve poter essere verificata. Bisogna costruire un sistema di controllo efficace e affidabile che ci consenta di monitorare i possibili effetti negativi dell’IA sui diritti delle persone ed essere in grado anche di agire tempestivamente in caso di impatti negativi accertati. Dobbiamo infatti ragionare di Intelligenze artificiali sapendo che, come diciamo nel Manuale, “sono (strumenti) in grado di impiegare una mole di dati in tempi così brevi da essere 'inumani”.
E con questa considerazione torna prepotentemente in primo piano il tema della data protection. Se poi abbiamo davvero chiaro che, nei livelli funzionali più avanzati, i meccanismi di intelligenza artificiale riescono in modo autonomo, automatico, a dare un senso compiuto ai dati che processano, capiamo quale sia la vera portata di questa tecnologia. Queste sue caratteristiche rendono indispensabile riuscire a trovare un equilibrio tra lo sviluppo tecnologico e il rispetto dei diritti fondamentali. La tecnologia deve essere trasparente.
La sua accountability, cioè la possibilità di leggere e capire come si sia arrivati ad una qualunque decisione basata su sistemi di IA, quali saranno i dati utilizzati, come e per quali scopi, sono le caratteristiche minime che bisogna pretendere nel costruire un quadro regolatorio che accompagni le implementazioni previste. Il che rende chiaro perché sia necessario appropriarsi di quegli spazi di contrattazione specifica a tutela di lavoratrici e lavoratori e dei cittadini tutti che possono contribuire a evitare il rischio di discriminazioni, di produzione di diseguaglianze, di esacerbazione dell’asimmetria pericolosa tra fornitori e fruitori di tecnologia, tra datori di lavoro e lavoratori, rendendone trasparenti ambiti, finalità e modalità di impiego e prevedendone tempestivi correttivi laddove necessari.
Dunque se è positivo che il governo italiano abbia strutturato questo percorso, conscio dei ritardi del Paese, sarebbe parimenti indispensabile che si prevedesse da subito il coinvolgimento delle parti sociali nelle diverse fasi di realizzazione dei progetti declinati.
Cinzia Maiolini, responsabile dell'Ufficio lavoro 4.0 della Cgil nazionale