Un poliziotto della NYDP che arresta un agente dell’ICE, un agente dell’FBI afroamericano che agita il tesserino sempre davanti a un agente dell’ICE urlando: “Sono dell’FBI, non puoi arrestarmi, fottiti!”. Cito due tra le migliaia di video che negli ultimi giorni fanno il giro del web e sono generati dall’AI (da qualcuno che li ha fatti con l’AI, l’AI da sola non fa niente). Senza contare le scene dalle zone di guerra, metà vere metà no, con la differenza che… non c’è nessuna differenza nel percepirle, e a seconda dell’idea politica dell’uno o dell’altro vengono diffuse per accreditare le proprie tesi, o semplicemente per farle girare.
Uno studio uscito da poco di Emilio Ferrara per l’University of Southern California (in particolare presso l’Information Science Institute della USC) analizza una questione meno appariscente dei deepfake ma più interessante: la progressiva perdita di valore dell’evidenza digitale. Non perché le immagini siano sempre false, osserva Ferrara, piuttosto perché potrebbero esserlo sempre. D’altra parte quando il contenuto sintetico diventa onnipresente, la reazione razionale non è credere a tutto, il nostro cervello smette di considerare ciò che vediamo come una prova affidabile.
Sui social spopola il caso del TG1 che ha utilizzato immagini, in seguito rivelatesi in parte generate con intelligenza artificiale, per raccontare una valanga in Kamchatka (dove sia la Kamchatka lo sappiamo tutti noi giocatori di Risiko). Il contenuto è stato rimosso, sono arrivate le correzioni, nessuna colpa grave, ma tant’è: immagini e video sintetici sono sufficientemente plausibili da entrare in un flusso informativo professionale, anche perché spesso sono difficili da verificare.
Il Reuters Institute for the Study of Journalism dell’Università di Oxford, nel suo rapporto sulle tendenze del settore, indica immagini e video generati dall’intelligenza artificiale come uno dei principali fattori di pressione sulla credibilità dei media e sul rapporto di fiducia con il pubblico. Una lettura ripresa anche da osservatori europei dell’informazione, che sottolineano come non siano solo i deepfake a indebolire la fiducia, casomai l’uso crescente di sintesi e mediazioni automatiche tra notizia e lettore. Se a questo ci aggiungiamo l’assoluto realismo visivo diventa tutto molto complicato.
Insomma, il contesto generale è quello che diversi quotidiani internazionali hanno descritto come una vera e propria saturazione di contenuti visivi generati dall’AI sui social, un accumulo tale da rendere sempre più difficile attribuire valore probatorio a ciò che vediamo. Le analisi al riguardo si moltiplicano, e sono abbastanza allarmanti. Per esempio un altro studio guidato da Dilrukshi Gamage, ricercatrice della University of Colombo, insieme a colleghi della Open University nel Regno Unito, mostra che segnalare un contenuto come generato dall’intelligenza artificiale aumenta la consapevolezza delle persone, eppure non modifica in modo significativo il loro comportamento. Anche sapendo che è artificiale le persone continuano comunque a guardarlo e condividerlo.
Un altro lavoro, condotto da Amanda Ide e da un gruppo di ricerca attivo nel campo dell’interazione uomo-macchina e dell’accessibilità delle interfacce digitali, spiega perché qualsiasi soluzione pensata per arginare il fenomeno funzioni poco. Nel flusso reale dei social gli indicatori di autenticità (quando ci sono, e non ci sono quasi mai) vengono spesso ignorati o sovrastati dal contesto. In contesti con minore alfabetizzazione digitale, come mostra una ricerca coordinata da Azmine Toushik Wasi, l’effetto è ancora più netto: l’esposizione continua a contenuti indistinguibili dal reale non produce maggiore attenzione, anzi il contrario, sfiducia generalizzata. Non solo verso i contenuti sospetti, ma verso tutto.
L’intelligenza artificiale, in sé, non ha colpe morali (sebbene molti tendano a umanizzarla, gli umani umanizzano tutto, spesso umanizzano troppo anche se stessi), come non le hanno Internet o qualsiasi altro strumento. Strumenti sempre più potenti vengono messi in circolazione, alla portata di chiunque, e finché serve a quello che vuole sentirsi un musicista o un artista o uno scrittore usando l’AI chissenefrega.
D’altra parte, pensateci: se dai a centinaia milioni di persone la possibilità di hackerare senza nessuna conoscenza, una parte di quelle persone hackererà. Non perché siano tutte cyber-criminali, anche solo per divertirsi (basta un clic e nessuno sforzo): qualsiasi mezzo potente, quando diventa accessibile, viene usato anche nei modi più opportunistici e distruttivi.
La corsa all’AI ha messo in mano a chiunque strumenti capaci di produrre immagini, testi e video indistinguibili dal reale, presentati come intrattenimento, come scorciatoia creativa, come gadget, producendo una confusione sistemica (come se non ce ne fosse già abbastanza nel mondo). Non sappiamo più cosa stiamo guardando, e tutto scorre nei feed così velocemente che la decisione se sia vero o falso viene presa in un secondo, e nel dubbio meglio pensare che sia tutto falso, soprattutto se non ci piace. In sintesi non viviamo in un’epoca in cui crediamo alle immagini false, viviamo in un’epoca in cui viviamo di immagini e non crediamo più alle immagini.
Ci fosse stata l’AI nel 1945 avrebbero detto che anche le immagini dei campi di concentramento nazisti, di Bergen-Belsen, di Buchenwald, di Dachau, di Auschwitz liberati dagli Alleati, erano finte (certi negazionisti lo hanno fatto lo stesso, ma quello è un altro discorso).