Una prima parte del Regolamento europeo sull’Intelligenza Artificiale è in attuazione dal 2 febbraio 2025. Da quella data l’uso di sistemi di IA con rischio inaccettabile è vietato. Nel corso dei successivi 30 mesi, il regolamento entrerà gradualmente in vigore:
- 2 maggio 2025: applicazione dei codici di condotta;
- 2 agosto 2025: applicazione delle regole di governance e degli obblighi per i sistemi di IA general purpose (come ChatGPT) e delle disposizioni relative alle sanzioni;
- 2 agosto 2026: applicazione di tutte le norme del regolamento;
-2 agosto 2027: applicazione delle regole per i sistemi ad alto rischio (elencati nell’allegato III).
Infine, il regolamento dovrebbe essere rivalutato entro il 2 agosto 2028 e in seguito ogni quattro anni.

La domanda che bisogna porsi è se il nostro Paese è in tempo per la sua attuazione, ovvero se il sistema Paese si sta predisponendo alla sua piena applicazione. Il disegno di legge n. 1146, 27 novembre 2024, provvedimento con impulso governativo sull’IA, sembra essersi arenato in Senato, dopo aver avuto una partenza in pompa magna. Tra gli esperti si hanno idee diverse sui tempi di emanazione di una norma nazionale a raccordare il Regolamento europeo anche perché, come abbiamo visto, l’attuazione ha tempi diversificati e lunghi.

Una parte del regolamento però è in attuazione, quello che definisce divieti per alcune applicazioni. Ecco allora la domanda principale: le imprese hanno eliminato strumenti che utilizzano dati biometrici e la lettura dell’emotività nei luoghi di lavoro? Come sempre avviene in questo Paese, manca la volontà di anticipare i problemi e cogliere la positività di innovazioni che potrebbero migliorare le condizioni delle persone e dei lavoratori.

Inutile dire che la transizione digitale, di cui l’IA è il sistema tecnologico più avanzato, impattante e performante, necessiterebbe di una regolazione sistemica che tenga assieme: normativa, gestione, controlli e contrattazione collettiva, ricerca e sviluppo.

Buona parte del mondo imprenditoriale afferma che c’è un rischio di eccessiva burocratizzazione, col pericolo di frenare il processo di sviluppo e di non cogliere opportunità di crescita economica. Per alcuni aspetti può essere vero: l’Ue burocratizza perché è l’unico modo per regolare un modello eterogeneo sia dal punto di vista giuridico che economico, e del mercato del lavoro. La verità è che poi la regolazione non lo fa solo la norma, ma la sua attuazione in un contesto specifico, la capacità di un sistema di rispondere positivamente nel suo insieme. Di indirizzare le regole senza generare confusione. Confusione che rischia, nel generarsi di una conflittualità diffusa, di portare a comminare sanzioni rilevanti alle imprese.

Sul piano dello sviluppo tecnologico e industriale sappiamo che il nostro Paese, come l’Ue, è indietro rispetto agli Usa e alla Cina, e difficilmente, visti gli scarsi investimenti e l’eterogeneità del sistema industriale Ue, questo gap sarà recuperabile. Ciò, anche in assenza di una concorrenza sui prodotti, rischia di generare costi e dipendenza da un unico sistema monopolistico.

Sul piano della regolazione e della tutela dei cittadini, se non si danno strumenti di controllo ad enti e autorità e non predisponi il sistema ad una contrattazione d’anticipo, allora si lascia la fase più delicata, quella dell’avvio di una trasformazione radicale, priva di direzione con un duplice rischio: la mancata attuazione e una conflittualità diffusa.

Per questo sarebbe stato importante definire alcune norme nazionali per l’attuazione del regolamento, ad esempio l’indicazione dell’autorità nazionale per l’intelligenza artificiale, perché non ci è chiaro chi dovrebbe intervenire dal 2 febbraio e quali siano i sistemi vietati.

Alcuni di questi sistemi “potrebbe” essere in esercizio nei luoghi di lavoro, ma è altrettanto complesso, nella moltitudine di sistemi di IA utilizzati dalle imprese, distinguere nettamente tra quelli vietati e quelli ad alto rischio (per il regolamento tutti quelli utilizzati nei luoghi di lavoro). Come sindacati per svolgere efficacemente questo compito, verifica e regolazione, dovremmo avere tavoli aperti in tutti i settori su questa materia. Cosa invece che avviene raramente e con grandi difficoltà.

Sarebbe necessario, in una fase di trasformazione così profonda, definire un protocollo tra le parti per la valutazione dei rischi, la regolazione dell’introduzione e dell’uso di questi strumenti, la formazione e la contrattazione su organizzazione del lavoro, sugli effetti su occupazione e professioni sia a livello contrattuale che aziendale.

Infatti il regolamento europeo interviene sul prodotto, responsabilizza le imprese produttrici e utilizzatrici, individua limiti a seconda della rischiosità del prodotto, ma non stabilisce tutele dirette per le persone ed i lavoratori. Non individua obblighi di contrattazione nell’introduzione dell’IA nei luoghi di lavoro, tanto che le norme per richiedere il confronto sono nazionali e spesso con qualche decennio sulle spalle (legge 300/70 – art. 4; D.Lgs 104/22 - art. 1bis; Gdpr – Regolamento Ue sul trattamento dei dati personali; D.Lgs 81/08, testo unico sulla sicurezza – nella stesura del Dvr).

Nonostante il far west attuale, come sindacati, non possiamo permetterci di non avviare un confronto con le imprese e, per alcuni applicativi, con il Governo e le pubbliche amministrazioni. Anche se “per il Regolamento” c’è tempo per regolare i sistemi ad alto rischio (entro il 2 agosto 2027), se non si interviene ora, oltretutto in assenza di un sistema di controllo e regolazione efficace, si corre il pericolo di lasciare che l’introduzione e l’uso di queste tecnologie sia determinato dalle sole imprese con ricadute sul piano dei diritti individuali, dei modelli produttivi, oltre che sul piano occupazionale e professionale.

Intervenire oggi per verificare i sistemi a rischio inaccettabile vuol dire iniziare a discutere dei sistemi ad alto rischio, cioè tutti i sistemi di IA utilizzati nei luoghi di lavoro. Questa potrebbe essere l’occasione per recuperare una parte rilevante del confronto sull’organizzazione del lavoro, processi produttivi, orari di lavoro, riconoscimenti professionali e salario, oltre che tutelare le persone dall’invadenza di sistemi che intervengono sui loro dati sensibili.

Alessio De Luca, Cgil, Ufficio progetto lavoro 4.0