Leggi il settimanale

Chi uccide l’informazione? Il report del Guardian sull’AI e l’errore storico dell’editoria

Nel report ripreso ieri dal Guardian si osserva che le Ai non si limitano a indirizzare il traffico verso le fonti

Chi uccide l’informazione? Il report del Guardian sull’AI e l’errore storico dell’editoria

Chi vuole uccidere l’informazione? Parlo in senso tecnologico. Ci sono state due fasi, parto dall’ultima, e cioè l’AI. Non propriamente l’AI di per sé, ma i colossi che la controllano (Google in prima fila). Secondo l’Institute for Public Policy Research, le grandi aziende di intelligenza artificiale stanno assumendo un ruolo sempre più centrale nella fruizione delle notizie.

Nel report ripreso ieri dal Guardian si osserva che questi sistemi non si limitano a indirizzare il traffico verso le fonti. Selezionano, rielaborano, sintetizzano, parafrasano, e presentano direttamente i contenuti agli utenti, sostituendosi di fatto alla consultazione diretta dei giornali (non è una novità, in ogni caso andiamo avanti). Nel documento si parla esplicitamente di piattaforme AI che stanno “emergendo come i nuovi guardiani di internet”, cioè come nuovi soggetti che controllano l’accesso all’informazione. È una questione che ho già affrontato qui (proprio su Google): le informazioni generate da ogni chatbot da dove vengono prese? Dai siti delle testate, e poi rielaborate. Il chatbot entra, prende quello che gli interessa, e esce col bottino. In sostanza ruba senza neppure far guadagnare un centesimo alla testata (che vive di pubblicità se non ha un paywall).

Per rispondere a questa trasformazione, l’IPPR propone l’introduzione di “etichette nutrizionali” per i contenuti generati o riassunti dall’intelligenza artificiale. L’idea (a mio parere inutile, nel merito, che gliene frega all’utente?) è che chi legge possa sapere se un testo è stato prodotto o sintetizzato da una macchina (stai usando un’AI e non lo sapevi? Credevi ci fosse un cinesino che leggesse i giornali?), da quali fonti giornalistiche proviene e in che modo è stato costruito. Secondo Roa Powel, senior research fellow dell’IPPR e co-autrice del report, “se le aziende di intelligenza artificiale intendono trarre profitto dal giornalismo e influenzare ciò che il pubblico vede, devono essere obbligate a pagare in modo equo per le notizie che utilizzano e a operare secondo regole chiare che proteggano il pluralismo, la fiducia e il futuro a lungo termine del giornalismo indipendente”. Mah. Etichetta o meno cambia poco, visto che già sappiamo che una sintesi è stata prodotta dall’AI, e che ci dia le fonti non cambia rispetto al mancato introito di chi quelle notizie le produce, cioè le testate e i giornalisti.

Comunque sia il report si basa anche su un’analisi empirica del comportamento dei principali strumenti di intelligenza artificiale. L’IPPR ha testato ChatGPT, Google AI Overviews, Google Gemini e Perplexity su cento query di attualità, analizzando oltre duemilacinquecento link e citazioni. Dai test emerge che ChatGPT e Gemini non citano la BBC perché l’emittente ha bloccato l’accesso ai bot, mentre Google AI Overviews e Perplexity continuano a utilizzare contenuti della BBC nonostante questa opposizione.

Un altro aspetto riguarda la forte asimmetria tra le testate utilizzate come fonti. Il Guardian risulta citato in una percentuale molto elevata delle risposte di ChatGPT, anche grazie all’accordo di licenza con OpenAI, mentre altri giornali britannici compaiono solo marginalmente. Secondo l’IPPR, questa dinamica rischia di “escludere i fornitori di notizie più piccoli e locali”, concentrando l’attenzione e il valore su poche testate già forti.

Google AI Overviews, per esempio, raggiunge miliardi di utenti al mese e fornisce risposte immediate direttamente nella pagina di ricerca. In molti casi l’utente ottiene ciò che cerca senza cliccare sul link originale, con una conseguente riduzione del traffico verso i siti dei giornali. Questa perdita di click significa meno impression pubblicitarie, meno ricavi e, nel lungo periodo, meno risorse per sostenere il lavoro giornalistico.

Infine, l’IPPR sostiene che il problema non possa essere risolto solo con soluzioni tecniche, ma richieda anche interventi normativi. Tra le proposte avanzate ci sono regimi di licenza collettiva per l’uso dei contenuti giornalistici da parte delle AI e un rafforzamento delle tutele sul copyright, con l’obiettivo di preservare la pluralità delle fonti e impedire che pochi grandi attori tecnologici controllino l’intero flusso informativo. L’argomento di fondo è che senza un riequilibrio tra chi produce informazione e chi la redistribuisce, il rischio è l’erosione progressiva del giornalismo professionale. Detto altrimenti: i giornali, già messi male, si trovano a dare in pasto il proprio lavoro all’AI senza guadagnarci un tubo.

Arrivo però al precendente, perché c’è n’è uno. Vi ricordate il famoso “l’ho letto su Google?” (in genere rispondevo: “la fonte?”, risposta media: “Google”). Tuttavia lì ancora vivevamo in un’epoca in cui si cliccava su un link, magari poco affidabile, magari autorevolissimo, e però, piccolo particolare, la maggior parte delle persone leggeva le news sui social. Le testate mondiali, all’epoca, hanno commesso un errore strategico. Tra il 2018 e il 2021, quando le piattaforme social, in particolare Facebook, proposero accordi strutturati sulla distribuzione delle notizie e sulla condivisione dei ricavi pubblicitari. L’editoria, poco sveglia, ha continuato a considerare quelle piattaforme come semplici canali di traffico, rifiutando di riconoscerle come intermediari dotati di potere algoritmico.

La conseguenza è stata una riduzione progressiva del reach dei link giornalistici (se postate il link di un qualsiasi giornale, per esempio, e avete diecimila follower, nella timeline lo vedranno in quattro, e vale per tutti i social), culminata dopo il 2020 in un crollo della visibilità e del traffico. Una sottovalutazione che ha prodotto effetti che adesso, con l’AI, Google AI Overview, ChatGPT e compagnia bella intelligentissima artificiale, non fanno che ripetersi su scala ancora più ampia. Soluzioni? Molto difficili. A mio parere sarebbe il caso di riconsiderare proprio quell’accordo mancato con i social, che ancora reggono, perché contro i colossi dell’AI credo ci sia poco da fare. Se uno passava da una testata passando per Facebook, non era poi così sbagliato riconoscergli una parte dei guadagni pubblicitari.

L’unica soluzione realistica che vedo è che l’iniziativa oggi venga presa proprio dalle Big Tech, perché se, alla lunga, non ci sarà più nessuno che produce notizie, neppure l’AI saprà dove prenderle, potrà solo inventarsele, come se non dovessimo fare lo slalom tra notizie inventate già adesso.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica