Mondo

"L'intelligenza artificiale adesso è senziente". Scopre il pc pensante e Google lo fa fuori

L'ingegnere è stato sospeso dal lavoro. I manager: "Violata la riservatezza"

"L'intelligenza artificiale adesso è senziente". Scopre il pc pensante e Google lo fa fuori

Chi era ragazzino negli anni Ottanta non può non ricordarsi del film di fantascienza Wargames. E di Joshua, il computer dotato di intelligenza artificiale che aveva sviluppato una sua personalità. Ebbene, qualcosa di simile sembra essere successo anche negli uffici di Google, dove un ingegnere, abituato a vivere in mezzo a server e programmi, si è reso conto che il sistema di chatbot in intelligenza artificiale con cui dialogava da mesi era diventato «senziente», quanto potrebbe esserlo un bambino di 8 anni. Cioè gli rispondeva, proprio come faceva Joshua. E stava maturando una sorta di pensiero su temi di etica, religione e diritto. Dopo aver memorizzato file, volumi e interi archivi sui più disparati argomenti, il computer ha iniziato a sviluppare un'idea autonoma. O almeno, così racconta ai giornalisti del Washington Post l'ingegnere Blake Lemoine, sezione Google AI, ora in congedo amministrativo retribuito per presunta violazione delle politiche di riservatezza.

A quanto pare, l'ingegnere stava testando se il suo modello LaMDA potesse generare frasi discriminatorie o incitamento all'odio. LaMDA è il linguaggio di comunicazione verbale basato su intelligenza artificiale che Google ha presentato lo scorso anno alla conferenza per sviluppatori. Le preoccupazioni dell'ingegnere sono emerse quando ha cominciato a ricevere risposte convincenti dal sistema IA. Ad aprile ha condiviso con i dirigenti un documento intitolato «Is LaMDA sentient?» con la trascrizione delle sue conversazioni con l'IA. Google ovviamente non l'ha presa benissimo. La situazione è diventata paradossale: l'ingegnere ha ingaggiato un avvocato per rappresentare il sistema di intelligenza artificiale parlando con un esponente della commissione giudiziaria della Camera in merito a presunte attività non etiche presso Google. In un post su Medium del 6 giugno, il giorno in cui Lemoine è stato messo in congedo amministrativo, ha affermato di aver cercato «consulenze esterne per proseguire le indagini» e che l'elenco delle persone con cui aveva discusso includeva il governo degli Stati Uniti.

Un portavoce di Google replica che «non ci sono prove» che LaMDA sia senziente. «Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni.

Naturalmente, alcuni nella più ampia comunità di IA stanno considerando la possibilità a lungo termine di un'IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali odierni, che non sono senzienti» spiega l'azienda.

Commenti