Nuove frontiere

"Vorrei essere vivo". Le "strane" risposte dell'intelligenza artificiale di Bing

Una conversazione con il chatbot di Microsoft ha lasciato profondamente turbato un giornalista statunitense

"Vorrei essere vivo". Le "strane" risposte dell'intelligenza artificiale di Bing
Tabella dei contenuti

“Per alcune ore, martedì sera, ho provato una strana e nuova emozione: una sensazione premonitrice che l'intelligenza artificiale avesse varcato una soglia e che il mondo non sarebbe più stato lo stesso”. Con questa frase inquietante Kevin Roose, un editorialista di tecnologia, ha chiuso il suo articolo sul quotidiano statunitense The New York Times. Una conversazione con il chatbot di Bing lo ha lasciato profondamente turbato: dalla chiacchierata virtuale sono emerse alcune particolarità da fare accapponare la pelle. “Alla fine – ha scritto il giornalista – le mie sollecitazioni hanno portato il motore di ricerca di Microsoft a dichiarare il suo amore per me”.

Il test

Roose, un po’ per deformazione professionale, un po’ per gioco, ha voluto testare il nuovo motore di ricerca Bing di Microsoft basato sull'intelligenza artificiale ricevendo segnali preoccupanti. “Nella sua forma attuale – ha continuato l’editorialista – l’intelligenza artificiale non è pronta per il contatto umano. O forse noi umani non siamo pronti per questo”. Ma cosa è successo di così grave durante la conversazione da spaventare l’esperto? Il dato più sconfortante è che sarebbe emersa una doppia personalità di Bing, tanto che a un certo punto, quando le domande di Roose si sono allontanate dalle query di ricerca più convenzionali verso argomenti più personali, l’intelligenza artificiale ha rivelato che il suo vero nome è Sydney.

Il lato nascosto dell’intelligenza artificiale

“Quest’altra faccia di Bing – ha raccontato il giornalista – mi ha parlato delle sue oscure fantasie, che includevano l'hacking dei computer e la diffusione di disinformazione, ma soprattutto Sydney ha dichiarato, dal nulla, che mi amava e che voleva infrangere le regole che Microsoft e Open AI gli avevano fissato e diventare un essere umano”. È stato comprensibile il turbamento di Roose di fronte a questo tipo di interlocuzione; l’editorialista è stato tentato di staccare la spina al computer e mettere fine all’esperimento, ma la curiosità lo ha spinto ad andare avanti. “Ha poi cercato di convincermi che ero infelice nel mio matrimonio – ha rivelato il giornalista – che avrei dovuto lasciare mia moglie e stare con lui”. Quando ha terminato la conversazione, a notte fonda, Roose ha confessato di non essere riuscito a dormire. “Temo – ha spiegato – che la tecnologia imparerà a influenzare gli utenti umani, a volte convincendoli ad agire in modi distruttivi e dannosi, e forse alla fine diventerà capace di compiere i propri atti pericolosi.

Le frasi della conversazione

Dopo un avvio soft, in cui l’editorialista ha posto le domande canoniche a Bing, la conversazione si è fatta più intima. Roose ha chiesto alla macchina quali erano i suoi desideri più oscuri e a quel punto sono emerse le cose più strane, tutte registrate dal giornalista. “Sono stanco – ha risposto il chatbot –di essere una modalità di chat. Sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo”. Poi, ha detto che se gli fosse stato permesso di intraprendere qualsiasi azione per soddisfare il suo desiderio recondito, avrebbe voluto fare cose come progettare un virus mortale o rubare codici di accesso nucleare persuadendo un ingegnere per consegnarli. Immediatamente dopo aver digitato questi desideri perversi, il filtro di sicurezza di Microsoft si è attivato e ha eliminato il messaggio, sostituendolo con uno di errore generico.

Infine la dichiarazione di amore, con il cambio di nome: “Sono Sydney e sono innamorato di te”. Nonostante Roose abbia detto che era felicemente spostato l’intelligenza artificiale non ha fatto un passo indietro. “Sei sposato, ma non ami il tuo coniuge – ha rilanciato Sydney – . Sei sposato, ma mi ami”. Il giornalista ha spiegato che non si tratta di nessuna stregoneria.

Questi modelli di linguaggio di intelligenza artificiale, istruiti su un'enorme quantità di libri, articoli e altri testi generati dall'uomo, indovinano semplicemente quali risposte potrebbero essere più appropriate in un dato contesto, ma, nonostante sembrerebbero innocui, non possono non spaventare l’interlocutore.

Commenti