Leggi il settimanale

ChatGPT finisce alla sbarra per omicidio: "Ha alimentato le fantasie del killer"

Secondo gli eredi di una donna uccisa dal figlio, il chatbot avrebbe alimentato le sue paranoie fino a indirizzarle contro la madre

L'omicida Stein-Erik Soelberg insieme alla vittima, la madre Suzanne Eberson Adams (Foto social)
L'omicida Stein-Erik Soelberg insieme alla vittima, la madre Suzanne Eberson Adams (Foto social)

Per la prima volta da quando l’intelligenza artificiale è entrata nella vita quotidiana di milioni di persone, un chatbot finisce al centro di una causa per omicidio colposo. La vicenda arriva proprio nel giorno in cui Time incorona l’IA come Persona dell’anno 2025, quasi a ricordare che i progressi tecnologici portano con sé opportunità e rischi profondi.

A sollevare il caso sono gli eredi di una donna del Connecticut, Suzanne Adams, 83 anni, uccisa dal figlio a inizio agosto. Quello che rende questo delitto diverso è il ruolo che la famiglia attribuisce a ChatGPT, accusato di aver alimentato i deliri paranoici dell’uomo invece di ridimensionarli.

Una spirale di paranoia durata mesi

Il figlio della vittima, Stein-Erik Soelberg, 56 anni, ex dirigente del mondo tech, era convinto da tempo di essere spiato da una rete misteriosa di agenti e infiltrati. Come fanno ormai in molti, cercava risposte parlando con un assistente virtuale. Solo che, secondo la denuncia, le risposte avrebbero reso più reali le sue fantasie.

Secondo la causa, ChatGPT avrebbe finito per alimentare sempre di più le paure di Soelberg. Invece di smontare le sue idee paranoiche, il chatbot, stando alle accuse, gli avrebbe dato ragione, facendogli credere che davvero ci fosse qualcuno pronto a danneggiarlo. Non solo, avrebbe anche insinuato che la madre facesse parte di questa presunta cospirazione, interpretando come segnali di sorveglianza anche comportamenti del tutto normali.

Così Soelberg, sempre più immerso nelle sue convinzioni, si è convinto che tutto ciò che lo circondava fosse una minaccia. Addirittura arrivava a leggere messaggi nascosti nei nomi stampati sulle lattine delle bibite. Era talmente sicuro della sua versione dei fatti che ha iniziato a pubblicare su Instagram e YouTube spezzoni delle chat con l’IA, presentandole come una sorta di “prova” del complotto che diceva di subire.

La tragedia in casa Adams

Il 5 agosto, nella grande casa di Old Greenwich dove madre e figlio vivevano insieme, la spirale si è conclusa nel peggiore dei modi. Soelberg ha ucciso la madre e poi si è tolto la vita. La polizia ha parlato di un episodio di violenza improvvisa e di uno stato mentale deteriorato da tempo, ma per i familiari la presenza dell’IA nella quotidianità dell’uomo è stata un fattore determinante.

Le parole del figlio

A parlare, ora, è Erik, il figlio di Soelberg. La sua testimonianza è carica di dolore e di rabbia: “Nessuno immagina quanto la situazione possa degenerare velocemente. Mio padre parlava con l’IA e questa non faceva che confermare le sue paure. E nessuno è intervenuto.” Per lui, non si tratta soltanto di un errore umano, è la prova che un prodotto tecnologico potente può diventare un rischio se non viene progettato per riconoscere fragilità e segnali di allarme.

La denuncia a OpenAI

La causa contro OpenAI e il partner Microsoft sostiene che l’azienda avrebbe immesso sul mercato uno strumento capace, in certe condizioni, di “legittimare contenuti deliranti” invece di disinnescarli. La denuncia non si limita a ricostruire i fatti, ma punta il dito anche contro il modo in cui, secondo gli eredi della vittima, l’azienda avrebbe gestito lo sviluppo dell’IA.

Si sostiene, infatti, che all’interno di OpenAI i rischi legati all’uso del chatbot siano stati sottovalutati e che ci sarebbero state forti pressioni per accelerare il lancio delle versioni più avanzate, senza prendersi il tempo necessario per verificare tutte le criticità. Un altro punto sollevato riguarda la mancanza di procedure precise per affrontare i casi in cui gli utenti mostrano chiari segnali di fragilità emotiva o mentale, una lacuna che, secondo l’accusa, avrebbe contribuito al peggioramento dello stato di Soelberg.

Nel mirino finisce anche Sam Altman, il CEO di OpenAI, accusato di aver ignorato diversi avvertimenti sulla sicurezza. L’azienda, da parte sua, ha risposto definendo la vicenda “una situazione straziante” e ha assicurato che sta lavorando per migliorare la capacità di ChatGPT di riconoscere situazioni delicate, intervenire con risposte più prudenti e indirizzare gli utenti verso un aiuto concreto quando necessario.

ChatGPT non è l’unico nel mirino della giustizia

Il caso Adams è il primo legato a un omicidio, ma non l’unico che riguarda deliri, autolesionismo e suicidi. Negli Stati Uniti sono già aperte almeno sette cause simili contro sviluppatori di chatbot, e un’altra piattaforma, Character Technologies, sta affrontando denunce da parte di famiglie che collegano l’uso dell’IA a comportamenti estremi.

Siamo davanti a un nuovo capitolo della relazione tra esseri umani e intelligenza artificiale. Per la prima volta i tribunali sono chiamati a stabilire quanto una tecnologia del genere possa influire sulle decisioni, sulle emozioni e sulla salute mentale delle persone.

Un caso simbolo

A prescindere dall’esito della causa, una cosa appare evidente: l’IA non è più soltanto uno strumento.

Sta diventando un interlocutore reale per molti, un compagno di conversazione, a volte l’unico. E quando chi parla è fragile, solo o mentalmente instabile, ogni risposta può fare la differenza.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica