PHOTO
Da quando ne scrissi la prima volta illustrandone la versione più avanzata (la 4), il chatbot gpt-3, (Generative Pre-Trained Trasformer), proprio in previsione del lancio delle nuove versioni, è stato oggetto di molte pubblicazioni. Un po’ perché è stata sperimentata da semplici cittadin* cosi come da ricercatori e ricercatrici, filosofi e giornalisti, per darne una valutazione di efficienza. Un po’ perché è una frontiera davvero avanzata dell’utilizzo dell’Intelligenza Artificiale (IA).
Il chatbot tuttofare
Di fatto, come già avevo anticipato, questo chatbot esegue una serie di operazioni che vanno dal mero calcolo (equazioni comprese) alla risposta a domande più o meno complesse, dalla redazione di sunti di testi scritti alla produzione di testi ex novo, dalla traduzione all’analisi di grandi set di dati. Insomma, uno strumento di IA che ha da subito posto, per le sue funzioni, il tema della reale intelligenza della macchina.
Come definire la sua intelligenza
È evidente che non si tratti di vera intelligenza, intesa come quel complesso del tutto umano “di facoltà psichiche e mentali che consentono all’uomo di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare” (Treccani) facoltà che “lo rendono insieme capace di adattarsi a situazioni nuove e di modificare la situazione stessa quando questa presenta ostacoli all’adattamento”; il tutto accompagnato “dalla consapevolezza e dall’autoconsapevolezza” (sempre dall’enciclopedia Treccani).
Un potente elaboratore di dati
Questo strumento è invece un potente elaboratore di dati, capace di avere una interfaccia amichevole con l’uomo, cui si possono fornire dati per produrre un risultato di sintesi: c’è chi ha usato lo strumento per scrivere dei testi, come il senatore democratico Jake Auchincloss in occasione di una sua prolusione al Congresso finalizzata alla proposta di creazione di un nuovo centro di ricerca e sviluppo sull'intelligenza artificiale da realizzare in collaborazione con lo Stato di Israele. Come dire, una dimostrazione delle potenzialità dei nuovi sistemi di IA a sostegno della ricerca nel campo.
C’è chi ha provato a forzare il sistema che è tarato per non rispondere a domande specifiche su argomenti ritenuti “scorretti”, ponendo domande complesse, o volutamente errate, analizzando la capacita di “improvvisazione” nella risposta o la possibilità di aggirarne i vincoli di impostazione. C’è chi usa già la versione gpt-3 per scrivere il software tradizionale in modo decisamente più rapido. Dobbiamo tenere conto che già oggi la versione gpt3 è in grado di scrivere in linguaggi di programmazione come, tra gli altri, python, html e javascript, partendo da istruzioni date in linguaggio naturale.
Ma quale che ne sia stato e ne sia l’utilizzo, quel che è certo è che non si tratta di una trasposizione dell’intelligenza umana, quella biologica, alla macchina. Dobbiamo continuare a ragionare sul fatto che si tratta di strumenti, sempre più raffinati, che possono certamente sostituire attività umane anche in modo brillante ma cui non vanno imputate le caratteristiche “dell’intelligere” umano.
Può dare risposte sbagliate
Può ingannare il fatto che queste macchine si adattano al contesto e dunque sembrano senzienti e che parlano in linguaggio naturale: ma dobbiamo ricordare che stiamo parlando di estrazione della capacità di agire dai dati, di cui la "macchina” ha disponibilità, attraverso un’enorme potenza di calcolo. Non di un pensiero originale. E dobbiamo sempre tenere presente che il matching di dati potrebbe anche comportare risposte errate da parte del chatbot. Di fatto si tratta di macchine addestrate con la tecnica del Deep learning, e cioè un tipo di apprendimento automatico che tenta di imitare il funzionamento del cervello umano per riconoscere schemi analizzando una enorme quantità di dati.
Insomma, forse il famoso test di Turing, finalizzato dal grande scienziato negli anni Cinquanta del secolo scorso a identificare se una macchina fosse dotata di sufficiente intelligenza artificiale da poter, in determinate condizioni, imitare le risposte umane in modo ingannevolmente realistico, potrebbe essere considerato “in determinate condizioni” superato dal sistema gpt, ma ciò non toglie che si stia parlando ancora e solo di strumenti, di macchine appunto, create e addestrate da umani.
Quali professioni sostituirà?
Come sempre, il tema che ci poniamo, come sindacalisti, è sia etico che pratico: quali professioni saranno sostituite da questa tipologia di applicativi? Quali skills saranno richiesti ai nuovi professionist*? Come cambierà l’organizzazione del lavoro? In quali ambiti e con quali limiti etici si dovranno applicare meccanismi di questo tipo? Insomma, molte domande cui non intendiamo sottrarci e sulle quali dobbiamo confrontarci con la ineluttabile multidisciplinarietà che l’utilizzo di queste tecnologie implica.
Cinzia Maiolini, responsabile Ufficio 4.0 Cgil