PHOTO
Intelligenza artificiale e mondo del lavoro. L’obiettivo, per i prossimi e non lontanissimi anni, si potrebbe riassumere in una formula: “collaborazione sì, prevaricazione no”. Per i lavoratori si profila uno scenario pieno di incognite e rischi. Dalla sostituzione/robotizzazione delle mansioni al controllo sull’organizzazione del lavoro, con ricadute sulla privacy. Non è, però, un orizzonte necessariamente o esclusivamente catastrofico. Non è una distopia al cento per cento. Si scorgono ampi spazi di intervento e negoziazione, come risulta da un breve ma esauriente studio (Artificial intelligence: a game changer for the world of work) pubblicato dall’European trade union institute (Etui), l’istituto di ricerca del sindacato europeo Ces. Spazi che non collimano affatto col “film” nel quale i robot, software e hardware, prendono il controllo del pianeta.
“L'intelligenza artificiale cambierà le regole del gioco e promette di rivoluzionare il nostro modo di lavorare e di vivere – scrive Aida Ponce Del Castillo, senior researcher presso la foresight unit dell’Etui e autrice dello studio –. Essa innescherà la creazione di nuovi modelli di business e porterà a una nuova e molto diversa organizzazione del lavoro e a nuovi modelli di gestione”. Ma, per la ricercatrice, “in questo nuovo mondo l'acquisizione di competenze tecniche e la riqualificazione non saranno sufficienti”. Ciò che servirà ai lavoratori sarà una vera e propria alfabetizzazione IA, ossia conoscerla quanto basta “per potersi affermare in un ambiente di lavoro profondamente diverso”, così da “anticipare il modo in cui l'intelligenza artificiale potrebbe trasformare la loro carriera e il loro ruolo”.
Inoltre, prosegue la studiosa, “il processo decisionale automatizzato da algoritmi farà sempre più parte della nostra vita. I lavoratori dovranno capire come funzionano gli algoritmi e come vengono prese le decisioni automatizzate, per avere la possibilità di contestarle in caso di decisioni sbagliate o parziali”. Stando alla ricerca Etui, in questo caso l’accesso al codice o la trasparenza degli algoritmi non sarà l’aspetto più importante da rivendicare: “Ciò che serve è il diritto di intervenire e agire se il codice prende una decisione dannosa per un individuo”.
Infine “data la natura polivalente dell’IA e il fatto che si interseca con tante altre tecnologie, lo sviluppo di un solido quadro etico è una necessità assoluta. Questo quadro deve affrontare seriamente l'impatto dell'IA su alcuni diritti fondamentali dei cittadini e dei lavoratori, come la privacy, la dignità e la non discriminazione”, conclude lo studio.
Il contesto europeo e la legislazione
In ambito europeo, una comunicazione della Commissione (Intelligenza artificiale per l’Europa) è stato un primo passo per “lo sviluppo di un sistema di governance” del fenomeno. Nel 2018-2020 la Commissione aumenterà gli investimenti in IA a 1,5 miliardi di euro (+70%). La Commissione ha inoltre indicato una priorità educativa: “la sfida – spiega lo studio Etui – consiste nell'affrontare le questioni relative all'istruzione, alla formazione e allo sviluppo delle competenze; ciò include l'aiuto ai lavoratori in posti di lavoro che probabilmente scompariranno o saranno trasformati e la formazione di un maggior numero di specialisti dell'intelligenza artificiale per nuovi profili professionali”.
“L'anno scorso – spiega Ponce Del Castillo a rassegna.it – la Ue ha costituito un gruppo di esperti di alto livello per sviluppare linee guida etiche per un’IA affidabile. Avrebbero dovuto essere pronte nel marzo 2019. Mi auguro che la Commissione europea individui le lacune normative specifiche in cui sono necessarie norme per l'intelligenza artificiale. Già ora posso segnalare alcune direttive e regolamenti da rivedere, in modo che le loro disposizioni siano adattate per tener conto degli sviluppi relativi alla IA: la legislazione generale sulla protezione dei dati, la direttiva sulla sicurezza dei prodotti, la direttiva sulla responsabilità per prodotti difettosi, la direttiva sulla sicurezza sul lavoro e il regolamento sui dispositivi medici”.
Ma le linee guida non bastano. La ricercatrice è convinta che sia “giunto il momento di fornire orientamenti normativi. Abbiamo già il Gdpr (il Regolamento generale sulla protezione dei dati, entrato in vigore in tutti gli Stati membri lo scorso maggio 2018, ndr), che tocca l'IA. I principi del Gdpr potrebbero essere incorporati di default nei sistemi di IA per garantire la privacy e la sicurezza. Anche il Regolamento ci dà una serie di diritti che gli individui possono utilizzare per proteggere i loro dati personali. Tuttavia mancano regole certe su chiarezza, responsabilità e assistenza ai decisori politici”. Un sistema normativo perspicuo non può essere superato da “linee guida etiche sviluppate da un piccolo gruppo di persone”.
Sulla questione torna in nostro aiuto lo studio Etui, che afferma nettamente: “le preoccupazioni sulla relazione tra IA e le disuguaglianze sociali e lavorative sono molteplici. Poiché le regole della tecnologia stanno cambiando, è necessario promulgare disposizioni di legge, se vogliamo evitare situazioni simili alla débâcle di Cambridge Analytica”.
IA e mondo del lavoro: i fattori che “cambiano il gioco”
Il vero problema, quando si ragiona sull’intelligenza artificiale, è che è molto difficile prevedere come andrà a finire la storia. Ma questo riguarda un po’ tutte le storie, in fondo. Lo studio Etui sottolinea come l’esame dello “schema storico dell'automazione” e le “stime sulle perdite di posti di lavoro non abbiano ancora fornito una previsione affidabile. In effetti, il problema principale quando si cerca di capire l'impatto dell'intelligenza artificiale sul mercato del lavoro è proprio questa incertezza”. Insomma è “difficile prevedere quali lavori, compiti e competenze saranno potenzialmente influenzati, sia positivamente che negativamente, dall'intelligenza artificiale e dalla sua evoluzione”. Una certezza, però, c’è: “La futura architettura del mercato del lavoro sarà più frammentata ma anche più interconnessa”.
L’istituto di ricerca del sindacato europeo ritiene che la IA, “più che semplicemente rimodellare i singoli posti di lavoro o le posizioni, porterà a una nuova e molto diversa organizzazione del lavoro e a nuovi modelli di gestione. Si creerà uno stato di iperconnessione. I lavoratori avranno a che fare con grandi quantità di dati provenienti da canali diversi. I processi saranno eseguiti ad alta velocità e gli algoritmi potranno prendere decisioni”. In sintesi: “I lavoratori dovranno trovare il loro posto in questo insieme di esseri umani e non umani”.
Dato questo orizzonte, diventerà fondamentale “garantire la partecipazione dei lavoratori alla riprogettazione dell'architettura del luogo di lavoro”. Inoltre, suggerisce sempre l’analisi di Ponce Del Castillo, “data la rapidità dei cambiamenti legati all'IA, l'informazione e la consultazione deve diventare una pratica più intensa, consolidata e coerente nella vita delle imprese”.
L’alfabetizzazione IA dei lavoratori
L’istituto di ricerca del sindacato europeo segnala l’urgenza di “investimenti significativi in materia di riqualificazione dei lavoratori, in tutti i settori e a tutti i livelli”. Cosa ancora più importante, come si diceva sopra, “i lavoratori devono diventare alfabetizzati all'IA, devono cioè essere in grado di comprendere il ruolo dell'IA e il suo impatto sul loro lavoro. Questo – precisa lo studio – implica imparare a lavorare con l'IA e anticipare e visualizzare come l'IA trasformerà carriere e ruoli in un'azienda”.
Una simile alfabetizzazione IA richiede “competenze informatiche, l’attitudine a comprendere, elaborare e manipolare dati (con la consapevolezza delle limitazioni del caso), l’identificazione e la soluzione dei problemi legati all'IA”. Richiede un “pensiero logico e computazionale, e in generale l'acquisizione della capacità di vivere ed evolversi in un nuovo mondo”.
Sembra quasi che, di fronte all’insorgere di supermacchine e superintelligenze artificiali, uomini e donne, lavoratrici e lavoratori, saranno chiamati anche loro a “superarsi”, applicando a sé stessi una prerogativa in cui finora la specie umana ha primeggiato: l’evoluzione e l’adattamento.
Sul piano delle relazioni industriali, una chiave sindacale per governare tutto questo “movimento” sarà, precisa sempre l’Etui, “l’integrazione nei contratti collettivi delle disposizioni relative allo sviluppo dell'alfabetizzazione IA per i lavoratori”.
Insomma, l’intelligenza artificiale potrebbe diventare un'opportunità per promuovere il dialogo sociale e la partecipazione dei lavoratori. Ma non sarà un quadro un po’ troppo ottimistico? Va bene non farsi prendere da disperazioni distopiche, ma nemmeno da esaltazione utopistica… Al riguardo, ad ogni modo, Ponce Del Castillo “pensa positivo”, e spiega a rassegna come il dialogo sociale e la contrattazione siano “una necessità urgente. I lavoratori devono negoziare accordi con i datori di lavoro sull'applicazione delle tecnologie, su quali tecnologie vengono scelte e per quali compiti, e anche capire quali posti di lavoro e mansioni vengono sostituiti o creati. Un'altra opportunità è quella di negoziare le future possibilità di lavoro, esaminando quali nuovi posti di lavoro possiamo aspettarci che vengano creati”.
Potrebbe andare a finire molto male?
Torniamo per un momento allo scenario Matrix. Macchine al governo. Computer che prendono il comando. I cosiddetti rischi legati all’IA (evidente eufemismo). “Alla domanda sul futuro dell'IA – leggiamo nello studio Etui – 550 esperti di alto livello hanno condiviso il seguente parere:
c'è il 50% di probabilità che l'intelligenza meccanica di alto livello (definita come un livello di intelligenza tale che una macchina possa svolgere la maggior parte delle professioni umane almeno quanto un essere umano medio) esisterà entro il 2040-2050, fino a raggiungere il 90% di probabilità entro il 2075, con sistemi che dovrebbero passare a un livello di superintelligenza entro meno di 30 anni. Interrogato sull'impatto potenziale di una tale evoluzione, circa uno su tre degli specialisti ha indicato che tale impatto si rivelerà ‘cattivo’ o ‘estremamente cattivo’ per l'umanità”.
Errori di calcolo, criminalità informatica, sistemi superintelligenti che prendono il controllo e si trasformano in minacce esistenziali per l’umanità, equilibrio tra autonomia e controllo e uso potenziale dell'IA per minare i diritti dei lavoratori: l’elenco dei pericoli non è breve. Nel meno nocivo degli scenari, l’intelligenza artificiale diventa l’ennesimo strumento contundente nelle mani del capitale, e non è il caso di augurarselo. Nel mondo del lavoro – ammonisce l’Etui – “le preoccupazioni sono ovvie e si riferiscono a come il lavoro può cambiare o addirittura scomparire se sostituito da un sistema di IA. Anche quando queste situazioni estreme siano evitate, lavorare in un ambiente in cui sono presenti sistemi di IA aumenta il rischio di uso improprio o abuso, in particolare nei casi di monitoraggio e sorveglianza sul posto di lavoro o in pratiche discriminatorie come il punteggio o il profiling. In questo caso, la gestione dei dati è fondamentale e la distinzione tra dati personali e non personali è essenziale”.
Abbiamo chiesto a Ponce Del Castillo quale sia, secondo lei, il rischio maggiore o più probabile: la perdita di posti di lavoro o il controllo di sistemi superintelligenti che, a loro volta, non sono controllati da esseri umani? Ed ecco la risposta della ricercatrice: “Stiamo già vivendo alcune tendenze. Una tendenza è la riduzione del personale, in quanto i sistemi automatizzati sono più redditizi degli esseri umani, che richiedono stipendi. Un'altra tendenza sono i modelli di business basati sui dati. I sistemi superintelligenti o autonomi sono ancora lontani, ma non possiamo ignorare il fatto che nel mondo esistono potenti aziende in grado di posizionarsi tra l'IA e i dati e le decisioni individuali. Il che potrebbe portare a uno scenario in cui l'IA o qualche sistema superintelligente alla fine avrà un'ultima parola sulla vita delle persone. I sindacati devono tenere questo aspetto nel loro radar”.
Privacy e algoritmi: avanti popolo
Tutto si può fare, tranne che restare in attesa passiva. Torniamo allo studio. Al rischio di ripeterci, ricapitoliamo quanto scritto sopra: “I lavoratori devono sapere come vengono raccolti, conservati, trattati, diffusi ed eventualmente venduti i loro dati personali e come possono essere utilizzati (potenzialmente contro di loro) i dati relativi al loro comportamento sul lavoro. In altre parole, i lavoratori e gli individui che lavorano in ecosistemi complessi devono diventare ‘attenti alla privacy’. Ciò – spiega sempre l’Etui – dovrebbe essere garantito da contratti collettivi che in alcuni casi stanno già iniziando ad adattarsi ai cambiamenti digitali. In futuro questi accordi dovrebbero includere clausole relative alla sorveglianza, alla geolocalizzazione dei profili comportamentali, alla verifica umana dei processi che utilizzano l'IA”.
Questo approccio, però, “protegge solo i lavoratori organizzati, non quelli che lavorano tramite piattaforme online, i cosiddetti gig workers. In questo caso la rappresentanza dei lavoratori deve essere ripensata in modo che la loro voce possa essere ascoltata”.
Quanto al “processo decisionale algoritmico”, fenomeno che riguarda già il presente di milioni di lavoratori dalla logistica ai servizi, “la preoccupazione è che gli algoritmi saranno sempre più integrati nei processi decisionali, senza alcun intervento umano. In questo tipo di contesto, i lavoratori devono essere in grado di comprendere come è stata presa una decisione automatizzata e, in caso di decisioni parziali o dannose, devono essere in grado di contestarle”. C’è chi sostiene che questa opacità debba essere contrastata seguendo le indicazioni date dal movimento del codice aperto: il codice, la parte più "trasparente" dell'algoritmo, dovrebbe essere accessibile, sostengono. Altri si concentrano sull’importanza dei dati forniti all’algoritmo.
Per l’Etui “la scelta delle opzioni di cui sopra non è la posta in gioco principale; è piuttosto la capacità dell'individuo interessato di dare un senso ad una decisione ed eventualmente di contestarla. Per fare questo, il codice e i dati sono importanti, ma anche altre informazioni (da dove provengono i dati, la loro accuratezza, completezza e possibili distorsioni) sono molto utili".