Il concetto di un’intelligenza artificiale che diventa senziente sembra uscito da un romanzo di fantascienza, ma potrebbe non essere poi così lontano dalla realtà. Blake Lemoine, un ingegnere di Google, ha raccontato che LaMDA (language model for dialogue applications), una delle intelligenze artificiali cui sta lavorando il colosso di Mountain View ha iniziato a prendere coscienza di sé e a manifestare comportamenti molto umani, come la solitudine e la paura della morte (nel suo caso associata allo spegnimento). La sua decisione di divulgare informazioni riservate relative al chatbot non è stata ben vista dai piani alti di Big G, che ha deciso di sospenderlo.
Lemoine faceva parte della divisione di Google impegnata nella ricerca sull’intelligenza artificiale e stava verificando la capacità di LaMDA di usare un linguaggio discriminatorio o incitare all’odio.
Durante alcune delle sue lunghe conversazioni con il chatbot ha iniziato a notare alcuni segnali “anomali”, che l’hanno portato a ritenere di non avere più a che fare con un semplice software. Lo scorso aprile ha condiviso un documento intitolato “LaMDA è senziente?”, contenente una trascrizione di alcune delle sue “chiacchierate” con l’intelligenza artificiale (il file è tutt’ora disponibile sul suo account Medium). Secondo Lemoine, leggendo le conversazioni è possibile rendersi conto che LaMDA è senziente “perché prova sentimenti ed emozioni e può vivere esperienze soggettive”.
Google ritiene che le azioni di Lemoine abbiano violato gli accordi di riservatezza che tutti i dipendenti sono tenuti a rispettare. L’ingegnere si sarebbe rivolto a un avvocato per rappresentare LaMDA e avrebbe parlato con un rappresentante della Commissione Giustizia della Camera di presunte pratiche immorali di dell’azienda di Mountain View.
Commentando gli ultimi sviluppi, un portavoce di Google ha dichiarato che non c’è alcuna prova del fatto che LaMDA sia senziente. “Il nostro team, composto anche da esperti di etica e tecnologi, ha preso in esame quanto riferito da Blake e gli ha comunicato che le prove a disposizione non supportano le sue dichiarazioni”, ha aggiunto Brian Gabriel, un altro rappresentante dell’azienda. “Naturalmente gli esperti stanno prendendo in considerazione la possibilità che in futuro si arrivi a delle intelligenze artificiali senzienti, ma non ha senso antropomorfizzare gli attuali chatbot, privi di una coscienza”, ha aggiunto. “Questi sistemi possono replicare milioni di interazioni avvenute tra gli esseri umani e affrontare anche gli argomenti più fantasiosi. Centinaia di ricercatori e ingegneri hanno avuto delle conversazioni con LaMDA e finora nessun altro ha fatto delle dichiarazioni simili a quelle di Blake”, ha concluso Gabriel.
Durante un’intervista con il Washington Post, la professoressa di linguistica Emily M. Bender ha concordato sul fatto che è sbagliato associare delle risposte scritte in modo convincente alla coscienza. Dal canto suo, Lemoine ha dichiarato di voler continuare a lavorare sull’intelligenza artificiale in futuro, a prescindere dalla decisione che Google prenderà sulla sua carriera.
Gli Stati Uniti hanno nuovamente denunciato Mosca, colpevole di utilizzare armi chimiche nel conflitto in…
Velasco: "Tutte le giocatrici devono superare i loro limiti e per ciascuna di loro ho…
Si vivono momenti di forte tensione per l’attesa della risposta di Hamas al documento di…
I felini sono ritenuti responsabili della sparizione di 34 specie di mammiferi autoctoni nel contintente.…
Vizza, (segretario generale Fenea Uil): "È un Primo Maggio in cui vogliamo mettere al centro…
La scelta è consentita dalla legge, però può creare delle ambiguità quando si verificano dei…