“L’IA sta diventando senziente”: Google sospende il dipendente “spione”

L’ingegnere Blake Lemoine ha dichiarato che LaMDA, uno dei chatbot a cui sta lavorando il colosso di Mountain View, avrebbe una coscienza

Il logo di Google
Foto Pixabay | DWilliam
newsby Alessandro Bolzani13 Giugno 2022


Il concetto di un’intelligenza artificiale che diventa senziente sembra uscito da un romanzo di fantascienza, ma potrebbe non essere poi così lontano dalla realtà. Blake Lemoine, un ingegnere di Google, ha raccontato che LaMDA (language model for dialogue applications), una delle intelligenze artificiali cui sta lavorando il colosso di Mountain View ha iniziato a prendere coscienza di sé e a manifestare comportamenti molto umani, come la solitudine e la paura della morte (nel suo caso associata allo spegnimento). La sua decisione di divulgare informazioni riservate relative al chatbot non è stata ben vista dai piani alti di Big G, che ha deciso di sospenderlo.

LaMDA è senziente? Per Google non ci sono prove

Lemoine faceva parte della divisione di Google impegnata nella ricerca sull’intelligenza artificiale e stava verificando la capacità di LaMDA di usare un linguaggio discriminatorio o incitare all’odio.

Intelligenza artificiale deepfake
Foto Pixabay | geralt

Durante alcune delle sue lunghe conversazioni con il chatbot ha iniziato a notare alcuni segnali “anomali”, che l’hanno portato a ritenere di non avere più a che fare con un semplice software. Lo scorso aprile ha condiviso un documento intitolato “LaMDA è senziente?”, contenente una trascrizione di alcune delle sue “chiacchierate” con l’intelligenza artificiale (il file è tutt’ora disponibile sul suo account Medium). Secondo Lemoine, leggendo le conversazioni è possibile rendersi conto che LaMDA è senziente “perché prova sentimenti ed emozioni e può vivere esperienze soggettive”.

Google ritiene che le azioni di Lemoine abbiano violato gli accordi di riservatezza che tutti i dipendenti sono tenuti a rispettare. L’ingegnere si sarebbe rivolto a un avvocato per rappresentare LaMDA e avrebbe parlato con un rappresentante della Commissione Giustizia della Camera di presunte pratiche immorali di dell’azienda di Mountain View.

Leggi anche: Klimt, l’opera perduta ricostruita grazie all’intelligenza artificiale

Commentando gli ultimi sviluppi, un portavoce di Google ha dichiarato che non c’è alcuna prova del fatto che LaMDA sia senziente. “Il nostro team, composto anche da esperti di etica e tecnologi, ha preso in esame quanto riferito da Blake e gli ha comunicato che le prove a disposizione non supportano le sue dichiarazioni”, ha aggiunto Brian Gabriel, un altro rappresentante dell’azienda. “Naturalmente gli esperti stanno prendendo in considerazione la possibilità che in futuro si arrivi a delle intelligenze artificiali senzienti, ma non ha senso antropomorfizzare gli attuali chatbot, privi di una coscienza”, ha aggiunto. “Questi sistemi possono replicare milioni di interazioni avvenute tra gli esseri umani e affrontare anche gli argomenti più fantasiosi. Centinaia di ricercatori e ingegneri hanno avuto delle conversazioni con LaMDA e finora nessun altro ha fatto delle dichiarazioni simili a quelle di Blake”, ha concluso Gabriel.

Una rappresentazione dell'intelligenza artificiale
Foto Pixabay | Gerd Altmann

Durante un’intervista con il Washington Post, la professoressa di linguistica Emily M. Bender ha concordato sul fatto che è sbagliato associare delle risposte scritte in modo convincente alla coscienza. Dal canto suo, Lemoine ha dichiarato di voler continuare a lavorare sull’intelligenza artificiale in futuro, a prescindere dalla decisione che Google prenderà sulla sua carriera.


Tag: Googleintelligenza artificiale