Cronaca internazionale

"Attacco al Pentagono": così la foto fake dell'ai ha mandato in tilt Wall Street

Un fotomontaggio con una finta esplosione del Pentagono che, diventando virale in pochi attimi, ha mandato in tilt gli investitori di Wall Street per dieci interminabili minuti. L'intelligenza artificiale indiziata principale.

"Attacco al Pentagono": così la foto fake dell'ai ha mandato in tilt Wall Street

Ascolta ora: ""Attacco al Pentagono": così la foto fake dell'ai ha mandato in tilt Wall Street"

"Attacco al Pentagono": così la foto fake dell'ai ha mandato in tilt Wall Street

00:00 / 00:00
100 %

L'immaginazione, si sa, gioca brutti scherzi. Ma la rete non è da meno, soprattutto nel mezzo delle tensioni geopolitiche attuali ove la rete mostra tutto e il contrario di tutto e la verità finisce per essere la prima vittima. Quello che è accaduto poche ore fa, infatti, è la prova di quanto ormai il web e i social vengano assurti immediatamente come fonte primaria di informazione. Ma soprattutto di come l'intelligenza artificiale sia in grado di creare ingenti danni facendosi strada in campi come la moderazione dei social, la scrittura di notizie o il mercato azionario.

Il Pentagono (fintamente) in fiamme

Il 22 maggio è circolato sul web un fotomontaggio che ritrae una finta al Pentagono che gli investitori di Wall Street, assieme a migliaia di utenti della rete hanno scambiato per autentico. Alle 10:09 (ora di Washington), infatti, hanno cominciato a susseguirsi tweet recanti l'immagine di un’esplosione, con tanto di fumo nero, con la didascalia “Ultim’ora: esplosione nei pressi del Pentagono”. Ad ingannare molti utenti, le ricondivisioni dei profili con la spunta blu, fra i quali anche uno di un utente fake, falsamente legato alla piattaforma Bloomberg e che promuoveva i contenuti di QAnon. A creare maggiore scompiglio il fatto che la finta sequenza fosse stata diffusa da un profilo come quello di tale OSINTdefender, che pubblica quotidianamente e che si definisce un “Open Source Monitor”: l’account supera i 300mila follower e dichiara di occuparsi di Europa e conflitti nel mondo. Quest'ultimo, raggiunto tramite twitter dai reporter del Washington Post, ha dichiarato di aver letto la notizia su Discord da un utente che si fa chiamare "Walter Bloomberg". Costui aveva ripostato un'immagine proveniente da Facebook, poi cancellata, di una persona che dichiarava di lavorare ad Arlington. Anche questo spiega perché numerosi utenti hanno ritenuto la notizia vera. Il post in questione è poi stato rimosso sebbene Twitter si rifiuti di commentare l'accaduto.

Una volta diventata virale, la foto è stata ri-battezzata come autentica dalla rete tanto che la borsa statunitense ha subito delle leggere inflessioni per una durata di almeno dieci minuti: un'infinità per le tempistiche del mercato azionario, ma quanto basta da costringere il dipartimento della Difesa Usa a negarne l'autenticità attraverso una nota specifica che annunciava: "si tratta di un resoconto falso, e il Pentagono oggi non è stato bersaglio di un attacco". Costretti a smentire anche i vigili del Fuoco di Arlington, in Virginia, pronti ad assicurare che nessun incendio e nessun pericolo fosse segnalato in quel di Pentagon city. Inevitabile l’effetto farfalla: la notizia è giunta in un notiziario indiano in onda su Republic Tv, che a sua volta citava un post e un’immagine twittata da Russia Today.

https://twitter.com/AndyBCampbell/status/1660654574644887558?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1660654574644887558%7Ctwgr%5Efae28134aa9defbf0e4fac3f539f2484687caea8%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.corriere.it%2Ftecnologia%2F23_maggio_23%2Fesplosione-al-pentagono-cos-e-successo-con-la-fake-news-che-ha-fatto-crollare-gli-indici-a-wall-street-b49c56f6-9462-407a-8a78-3b76dd083xlk.shtml

Gli interrogativi sulla combinazione social+Intelligenza artificiale

Non è ancora chiaro chi si celi dietro l’accaduto, ma dalle prime evidenze appare chiaro che il finto fotogramma possa derivare da una elaborazione dell’intelligenza artificiale. L’immagine, da una più attenta osservazione, assomiglia poco al Pentagono, reca infatti errori strutturali sull’edificio e sulle recinzioni esterne celati dal fumo che il software AI ha aggiunto ad una immagine preesistente.

Nelle ultime settimane i social pullulano di immagine così ottenute e che sono diventate virali perché utilizzate come meme: in molti ricorderanno il finto arresto in manette di Donald Trump o Papa Francesco avvolto in un enorme piumino bianco. Quello che è accaduto ieri genera, tuttavia, almeno due ordini di interrogativi: il primo, su quanto possa essere pericolosa l’intelligenza artificiale se utilizzata per lo scopo sbagliato. Del resto una bufala di tali proporzioni è facile da smentire nel giro di pochi minuti, ma è in grado di produrre comunque dei danni: in pochi minuti il Dow Jones Industrial Average è sceso di 80 punti tra le 10:06 e le 10: 10, tornando positivo solo alle 10:11.

Meno facile è smentire dettagli appartenenti al mondo della disinformazione che stratificano e sedimentano notizie false che poi vengono accettate come vere da milioni di utenti. Il secondo grande interrogativo è sul ruolo dei social, ed in particolare la piattaforma di Elon Musk: per lungo tempo, i profili verificati sono stati una garanzia della veridicità dei contenuti ivi espressi, sia che si trattasse di una Vip che di un sito di notizie o un’agenzia di stampa. Ma da quando la piattaforma del magnate ha concesso la tanto desiderata spunta in cambio di un banale abbonamento mensile da 8 dollari e della semplice verifica del numero di telefono, le cose rischiano di complicarsi soprattutto perchè è stata sventrata la forza lavoro umana della piattaforma, riducendo all'osso il team che un tempo verificava le tendenze virali. Cosa potrebbe accadere se una falsa notizia fosse generata da un profilo che si spaccia per un media affermato? Esattamente quello che è accaduto ieri.

Come sottolineano gli esperti, il parapiglia di cui sopra non è un problema legato solo all’intelligenza artificiale. Qualsiasi nerd smanettone con ottime capacità grafiche avrebbe potuto creare la finta foto del Pentagono in fiamme. Ciò che è preoccupante, nel prossimo futuro, è la possibilità che le tecnologie Ai possano rendere fallaci altri sistemi di controllo automatizzati. Ciò che ha fallito, infatti, è stata la capacità di piattaforme che diffondono informazione e contenuti virali di proteggere i propri utenti da notizie false e gravi, come in questo caso.

Un problema che, ovviamente, non è legato solo alla Ai ma al modo in cui vengono gestite e monitorate.

Commenti