Leggi il settimanale

Vai su Google per verificare una fake e rischi di uscirne con una fake certificata

Il report di NewsGuard su AI Overview e Google Lens

Vai su Google per verificare una fake e rischi di uscirne con una fake certificata

Ahi, Ahi, AI Overview di Google, per utenti, giornalisti e chiunque la usi per “informarsi” o peggio fare fact-ckecking. Una nuova analisi, questa volta condotta da NewsGuard, società che monitora la diffusione della disinformazione online, ha messo sotto osservazione il modo in cui Google interpreta immagini e video virali legati all’escalation tra Iran e Israele. Il test parte da un esperimento abbastanza semplice: i ricercatori hanno selezionato una serie di immagini e filmati diventati virali online durante le ore più intense del conflitto, molti dei quali già identificati come contenuti falsi o decontestualizzati, e hanno verificato cosa succede quando questi materiali vengono controllati attraverso gli strumenti di ricerca dell’AI di Google.

Ho già scritto più volte su quanto la funzione Overview sia inaffidabile, anche perché la maggior parte degli utenti non clicca sui link sottostanti, fidandosi della sintesi, qui però c’è un elemento in più (anzi due, e uno riguarda perfino i link). Infatti il lavoro si è concentrato in particolare su due strumenti: le sintesi automatiche che compaiono in cima ai risultati di ricerca (e già sappiamo come l’algoritmo possa distorcere la sintesi per limiti strutturali, comunque ulteriore riprova) e, questo più interessante, perfino Google Lens, la funzione di ricerca visiva utilizzata proprio per verificare l’origine di immagini sospette, vale dire uno degli strumenti più usati nel fact-checking visivo: si carica un’immagine, il sistema individua copie o versioni simili sul web e mostra in quale contesto è stata pubblicata.

Secondo il report di NewsGuard, in diversi casi l’interpretazione generata automaticamente dal sistema ha fornito risultati errati. Uno degli esempi analizzati riguarda un video circolato sui social come prova di un attacco missilistico iraniano contro Israele mentre, pensate un po’, il filmato mostrava festeggiamenti calcistici in Algeria avvenuti mesi prima. Cose che prima succedevano lo stesso, solo che si prendevano con le pinze perché diffuse da persone. Quando il video è stato analizzato tramite Google Lens, la spiegazione generata dal sistema lo ha comunque collegato agli attacchi iraniani, invece di identificare il contesto reale del filmato.

Un altro caso (ce ne sono diversi, non ve li elenco tutti) riguarda fotografie di incendi industriali o esplosioni avvenute anni prima in contesti completamente diversi, e anche qui il sistema ha collegato le immagini all’escalation militare recente, riproducendo la narrativa che stava circolando online invece di individuare l’origine reale delle fotografie.

Secondo NewsGuard il problema non deriva da un singolo errore ma dal modo in cui funziona il sistema. Google Lens riesce spesso a individuare immagini simili o copie della stessa fotografia pubblicate sul web, solo che l’interpretazione finale del contenuto viene generata da un modello linguistico che sintetizza le informazioni presenti nelle pagine trovate dal motore di ricerca.

Che succede quindi? Che se le descrizioni più diffuse associate a quell’immagine sono fuorvianti, o se il contenuto è stato condiviso online con interpretazioni sbagliate, la sintesi automatica può riprodurre quella narrativa invece di correggerla.

Non che sia una sorpresa: al di là di chi prende l’AI per un oracolo, questo comportamento appare coerente con i modelli linguistici generativi (i LLM): sono progettati per produrre la risposta più plausibile sulla base dei dati disponibili, non per verificare direttamente la veridicità delle informazioni. Quindi, in sintesi: non vi fidate della risposta sulle immagini neppure delle AI.

Tuttavia l’aspetto più interessante dell’analisi riguarda il rapporto tra la sintesi automatica e i risultati tradizionali della ricerca, state bene attenti (come dice il mio amico Silvan quando sta per fregarti con un trucco, peccato che qui sia non voluto): in diversi casi osservati dai ricercatori sotto la spiegazione generata dall’intelligenza artificiale (quella sbagliata) comparivano comunque link che spiegavano correttamente l’origine delle immagini. La ricerca classica di Google era quindi in grado di mostrare fonti che smontavano la narrazione virale, ma… colpo di scena, la sintesi automatica non sempre rifletteva queste informazioni. In alcuni dei test analizzati da NewsGuard, i risultati della ricerca includevano articoli di fact-checking o pagine che spiegavano il contesto reale dell’immagine, mentre la spiegazione sintetica prodotta dal sistema continuava a collegare il contenuto agli eventi militari recenti.

Per anni il metodo più diffuso per verificare una notizia o un’immagine è stato proprio quello di cercarla su Google e confrontare le fonti disponibili, Google adesso può non solo sbagliare la sintesi, sbaglia anche la verifica di un’immagine, oltre a indurre gli utenti a non consultare le fonti. NewsGuard infatti sottolinea come l’integrazione dell’intelligenza artificiale nella ricerca introduca un livello interpretativo tra le fonti e l’utente, e quando le fonti corrette sono disponibili, la sintesi generata dall’algoritmo può influenzare il modo in cui quelle informazioni vengono lette.

Nel caso delle immagini virali analizzate nello studio, questo significa che il sistema può contribuire involontariamente (ovvio, non che Google

lo faccia apposta) a rafforzare la narrativa dominante online invece di smontarla. Insomma, per farvela breve: andate su Google per verificare una fake e rischiate di uscirne con una fake certificata da Google come vera.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica