Cronaca internazionale

L’ultima follia su TikTok: i bimbi "fake" che raccontano i loro omicidi

Da Maddie McCann a Royalty Maire Floyd, grazie all'intelligenza artificiale sempre più account "riportano in vita" i piccoli massacrati

L’ultima follia su TikTok: i bimbi "fake" che raccontano i loro omicidi

Ascolta ora: "L’ultima follia su TikTok: i bimbi "fake" che raccontano i loro omicidi"

L’ultima follia su TikTok: i bimbi "fake" che raccontano i loro omicidi

00:00 / 00:00
100 %

L’alias digitale creato con l’intelligenza artificiale per riportare in vita i bambini barbaramente uccisi: questa è l’ultima moda di TikTok. Dalla scomparsa Madeleine Beth McCann al piccolo Bastien, passando per Royalty Marie Floyd: decine di bimbi sono tornati in vita sul social network tramite il deepfake, la tecnica per la sintesi dell’immagine umana basata sull’Ai utilizzata per combinare e sovrapporre immagini e video esistenti con immagini o video originali. Il risultato fa rabbrividire: le piccole vittime di brutali delitti parlano con sguardo fisso e distaccato, in netta contrapposizione con le drammatiche ricostruzioni degli omicidi.

L’ultima follia su TiKTok

“Mia nonna mi ha ucciso chiudendomi nel forno dopo averlo acceso […] Quel fatidico giorno, mia nonna mi ha pugnalato più volte", il racconto della piccola Royalty Marie Floyd. L’alias digitale con i suoi giganteschi occhi e i suoi capelli ricci ricci ripercorre i suoi ultimi istanti di vita con un sottofondo musicale inquietante. La bimba ovviamente non è reale, ma è una creazione generata dall’AI dall’account La mia storia, che vanta quasi 80 mila follower. Ma sono tanti gli utenti che hanno deciso di seguire il trend, compresi gli account italiani.

@lamiastoria_ai La piccola Royalty Marie Floyd racconta la sua terribile storia #storiatriste #storia #storiavera #cronacanera #orrore ♬ Ambient-style emotional piano - MoppySound

"Sono contenuti strani e inquietanti. Nonostante guardarli metta a disagio, sembrano progettati per innescare forti reazioni emotive. Che è il modo più sicuro per ottenere visualizzazioni e like", le parole a Rolling Stones di Paul Bleakley, professore associato di giustizia penale all’Università di New Haven. Molti account hanno un disclaimer in cui si afferma che il video non utilizza foto reali delle vittime, un modo per “rispettare la famiglia”. Tra i tanti esempi quello di Nostalgia Narratives, account da 175 mila seguaci che ripercorre le storie di piccole vittime di omicidio – come ad esempio l’assassinio di Elisa Izquierdo, ammazzata dalla madre violenta nel 1995 – ma anche casi molto noti come quelli di George Floyd e JFK.

I contenuti deepfake che ritraggono bambini vittime di omicidio violano la policy della piattaforma, ma alcuni account riescono ad aggirare i paletti. La via principale è quella di modificare l’aspetto delle vittime, oppure modificare alcuni dettagli della storia raccontata. Secondo il professor Bleakley le famiglie dei bambini coinvolti in questo fenomeno potrebbero intentare una causa civile contro i creatori di questi video, soprattutto se le clip servono a monetizzare.

Ma attenzione, è difficile argomentare il reato di diffamazione: “È un’area grigia piuttosto torbida”.

Commenti