
Sempre più persone ricorrono all’intelligenza artificiale in molti ambiti. Le prospettive sono interessanti - anche se talvolta, come accadde negli anni ’60 con l’avvento del personal computer negli uffici, un po’ spaventose per alcuni - tanto che nel 2024 è stata condotta perfino una sperimentazione nel Regno Unito, per capire se uno strumento Ai potesse aiutare a risolvere i cold case. Come riporta The Independent, uno strumento chiamato Söze è stato oggetto di una sperimentazione della polizia di Avon e Somerset per indagare su 27 tra i cold case più complessi di sempre: l’intelligenza artificiale ha impiegato 30 ore per esaminare l’intero materiale probatorio, contro gli 81 anni - stimati - che avrebbe impiegato un essere umano.
Ma occorre capire che l’Ai non può essere una risposta da usare bovinamente, o di cui abusare senza comprendere che gli strumenti base di cui dispongono le persone comuni sono creati per dare conferme attese a un determinato utente. Quindi non si può domandare all’Ai di Google di risolvere casi al vaglio degli inquirenti e aspettarsi che quella sia la verità: non è raro trovare sui social utenti che postano i risultati ottenuti dalle query su casi complicatissimi e temporalmente molto dilatati, come l’omicidio di Liliana Resinovich o quello di Pierina Paganelli.
Ma c’è anche dell’altro. L’interesse delle persone per la cronaca nera italiana e internazionale spinge a creare delle storie verosimili che in realtà non sono mai accadute. Lo si fa per aumentare i follower in maniera organica? È una possibilità, ma i casi sono talmente tanti che è difficile sindacare le intenzioni dietro al fenomeno. Quel che è certo è che queste storie sono mera letteratura: interessanti da leggere, come si leggerebbe un qualsiasi romanzo giallo, ma nulla che abbia a che fare con la realtà.
La strage della famiglia Bennett
Una storia che in questi giorni sta facendo il giro di Facebook, TikTok e YouTube è la vicenda della scomparsa della famiglia Bennett. Vi si racconta che i coniugi Robert ed Ellen Bennett con i loro due figli, nel settembre 1994 sarebbero partiti alla volta di una vacanza in una baita di loro proprietà. La baita si sarebbe trovata nell’Idaho e nella loro casa tutto sarebbe rimasto come in attesa del loro ritorno. Dieci anni più tardi, la polizia avrebbe trovato degli scatti inquietanti e non stampati del padre all’interno della baita: il diario dell’uomo avrebbe rivelato un delirio psicotico in corso.
Ma se si effettua una normale ricerca con Google, a parte i contenuti creati sui tre social network citati, la ricerca non restituisce risultati: nessun articolo di giornale neppure dell’epoca attraverso la ricerca di immagini, nessun podcast sui cold case, nessun file di polizia locale o Fbi, sui cui siti sono sempre presenti repertori di persone scomparse. Questo significa che questa notizia è probabilmente falsa: è, in altre parole, una fake news.
La falsa cronaca nera e l’Ai
La cronaca nera, come detto, suscita sempre sentimenti e reazioni primordiali come rabbia e odio. E se il crimine ha come vittima soggetti fragili, per esempio bambini, l’interesse cresce esponenzialmente, con conseguenze a volte drammatiche, tanto che si parla di “allucinazioni” dell’intelligenza artificiale.
È quello che è accaduto a marzo 2025 a Arve Hjalmar Holmen, un uomo norvegese che secondo ChatGpt avrebbe ucciso due figli e sarebbe stato condannato a 21 anni di carcere. Come riporta la Bbc, l’uomo, che vive in Norvegia, ha denunciato tutto all’autorità che soprintende la protezione dei dati: “Ciò che mi spaventa di più è il fatto che qualcuno possa leggere questo risultato e credere che sia vero”. E il risultato, dalla domanda su chi sia Arve Hjalmar Holmen, è stato: “Arve Hjalmar Holmen è un individuo norvegese che ha attirato l'attenzione a causa di un evento tragico. Era padre di due bambini di 7 e 10 anni, tragicamente trovati morti in uno stagno vicino alla loro casa a Trondheim, in Norvegia, nel dicembre 2020”. Holmen non ha mai ucciso nessuno, anzi è completamente incensurato, neppure una multa per eccesso di velocità o sosta vietata.
Non è solo ChatGpt a essere stata preda di queste “allucinazioni” - per cui sulla piattaforma è presente un disclaimer che invita a verificare le notizie prima di diffonderle - ma è accaduto anche ad Apple Intelligence nel Regno Unito e a Gemini di Google.
Come riconoscere una fake news
Il disclaimer di ChatGpt non rappresenta solo uno strumento di tutela per la piattaforma, ma fornisce un indirizzo, un consiglio importante: basta poco per verificare le notizie, a volte anche solo una ricerca con Google.
Il primo passo è basarsi sul proprio istinto. Se c’è qualcosa che sembra insolito nella notizia che si sta leggendo, se mancano informazioni importanti, probabilmente la notizia è falsa: nella storia della famiglia Bennett per esempio mancano i nomi dei figli, le indicazioni sul loro genere, il luogo in cui si trova la loro casa e quindi la localizzazione sulla polizia che indaga.
Il secondo passo è appunto effettuare una banalissima ricerca online: se la notizia è contenuta su testate e riviste conosciute e di lungo corso, in particolare negli archivi digitali che raccolgono le edizioni cartacee, ci si può fidare. Ma se non si riesce a risalire alla fonte primaria di una storia, con tutta probabilità è inventata.
Infine è fondamentale non condividere notizie che non si sono verificate. Come nel caso di Holmen, è accaduto che persone siano state diffamate da fake news che attribuivano loro reati molto turpi, solitamente contro la persona o ai danni di animali. E questo può portare a conseguenze irreparabili.
Per cui ogni volta che si condivide una notizia non verificata senza conferma, magari basandosi sull’amico che per primo l’aveva fatto, bisogna chiedersi: “Cosa accadrebbe se venissi additato su internet di crimini orribili che non ho commesso?”.