banner
Centro notizie
I nostri prodotti offrono un'esperienza fluida, pratica e sicura.

Ingegnere di Google che sostiene che la sua intelligenza artificiale è senziente

Aug 24, 2023

Annuncio

Blake Lemoine, l'ingegnere, dice che il modello linguistico di Google ha un'anima. L'azienda non è d'accordo.

Invia una storia a qualsiasi amico

Come abbonato hai 10 articoli regalo da donare ogni mese. Chiunque può leggere ciò che condividi.

Di Nico Grant e Cade Metz

SAN FRANCISCO — Google ha recentemente messo in congedo retribuito un ingegnere dopo aver respinto la sua affermazione secondo cui la sua intelligenza artificiale è senziente, facendo emergere l'ennesimo litigio sulla tecnologia più avanzata dell'azienda.

Blake Lemoine, un ingegnere informatico senior dell'organizzazione Responsible AI di Google, ha dichiarato in un'intervista di essere stato messo in ferie lunedì. Il dipartimento delle risorse umane dell'azienda ha affermato di aver violato la politica di riservatezza di Google. Il giorno prima della sua sospensione, ha detto Lemoine, ha consegnato dei documenti all'ufficio di un senatore americano, sostenendo che fornivano la prova che Google e la sua tecnologia erano impegnati nella discriminazione religiosa.

Google ha affermato che i suoi sistemi imitavano gli scambi di conversazioni e potevano ribattere su diversi argomenti, ma non ne avevano coscienza. "Il nostro team - inclusi esperti di etica e tecnologi - ha esaminato le preoccupazioni di Blake secondo i nostri principi sull'intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni", ha detto in una nota Brian Gabriel, portavoce di Google. "Alcuni nella più ampia comunità dell'intelligenza artificiale stanno considerando la possibilità a lungo termine di un'intelligenza artificiale senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti." Il Washington Post ha riportato per primo la sospensione del signor Lemoine.

Per mesi, Lemoine aveva litigato con i manager, i dirigenti e le risorse umane di Google per la sua sorprendente affermazione secondo cui il modello linguistico per le applicazioni di dialogo dell'azienda, o LaMDA, aveva una coscienza e un'anima. Google afferma che centinaia dei suoi ricercatori e ingegneri hanno conversato con LaMDA, uno strumento interno, e sono giunti a una conclusione diversa da quella di Lemoine. La maggior parte degli esperti di intelligenza artificiale ritiene che il settore sia molto lontano dalla sensibilità informatica.

Alcuni ricercatori sull’intelligenza artificiale hanno da tempo affermato in modo ottimistico che queste tecnologie diventeranno presto senzienti, ma molti altri sono estremamente rapidi nel respingere queste affermazioni. "Se utilizzassi questi sistemi, non diresti mai cose del genere", ha affermato Emaad Khwaja, ricercatore presso l'Università della California, Berkeley, e l'Università della California, San Francisco, che sta esplorando tecnologie simili.

Mentre inseguiva l'avanguardia dell'intelligenza artificiale, l'organizzazione di ricerca di Google ha trascorso gli ultimi anni impantanata in scandali e controversie. Gli scienziati e gli altri dipendenti della divisione hanno regolarmente litigato su questioni relative alla tecnologia e al personale in episodi che sono spesso emersi nell'arena pubblica. A marzo, Google ha licenziato un ricercatore che aveva cercato di dissentire pubblicamente dal lavoro pubblicato da due suoi colleghi. E il licenziamento di due ricercatori sull’etica dell’intelligenza artificiale, Timnit Gebru e Margaret Mitchell, dopo aver criticato i modelli linguistici di Google, ha continuato a gettare un’ombra sul gruppo.

Il signor Lemoine, un veterano militare che si è descritto come un prete, un ex detenuto e un ricercatore di intelligenza artificiale, ha detto ai dirigenti di Google senior come Kent Walker, il presidente degli affari globali, che credeva che LaMDA fosse un bambino di 7 o 8 anni. Anni. Voleva che l'azienda chiedesse il consenso del programma informatico prima di eseguire esperimenti su di esso. Le sue affermazioni erano fondate sulle sue convinzioni religiose, che secondo lui il dipartimento delle risorse umane dell'azienda discriminava.

"Hanno ripetutamente messo in dubbio la mia sanità mentale", ha detto il signor Lemoine. "Hanno detto: 'Sei stato visitato da uno psichiatra di recente?'" Nei mesi prima che fosse messo in congedo amministrativo, la società gli aveva suggerito di prendere un congedo per salute mentale.

Yann LeCun, capo della ricerca sull’intelligenza artificiale presso Meta e figura chiave nell’ascesa delle reti neurali, ha affermato in un’intervista questa settimana che questi tipi di sistemi non sono abbastanza potenti per raggiungere la vera intelligenza.