Ahi, ahi, AI, ci risiamo, come era prevedibile è successo di nuovo: l’intelligenza artificiale, mentre da un lato produce risultati interessanti dal punto di vista scientifico e diagnostico quando usata come strumento da persone competenti, dall’altra sta incasinando il meccanismo accademico delle pubblicazioni scientifiche, e stavolta se ne cominciano a lamentare in contesti ufficiali.
Nature riporta che ICML, una delle maggiori conferenze mondiali sull’intelligenza artificiale, ha respinto 497 paper, circa il 2% delle submission, dopo avere scoperto che i loro autori avevano violato le regole sull’uso dei modelli linguistici nella peer review di altri lavori, in vari casi lasciando perfino watermark riconoscibili. Il 2% sembra poco solo a chi non ha idea di cosa significhi intercettare quasi cinquecento paper prima che entrino nel circuito. Come disse Doctor House guardando delle analisi, con Cameron che gli diceva “Ma sono solo sotto di 2 punti”, “Se il tuo DNA fosse sotto di due punti saresti un delfino”.
La cosa paradossale è che l’AI stia entrando nel punto stesso in cui la scienza dovrebbe esercitare il massimo controllo: la valutazione dei lavori altrui. Dei quali, proprio per l’AI, non ci si può più fidare, quindi occhio, e che sia un occhio umano molto esperto (altro che studiare non serve più, fa tutto l’AI). Il problema è che dalla svista individuale di una volta oggi, con l’AI, sta diventando sistemico. Retraction Watch ha raccontato di un articolo pubblicato in una rivista del gruppo Springer Nature, in cui 12 riferimenti su 14 risultavano inesistenti. Dopo la segnalazione, l’autrice ha inviato altre due versioni della bibliografia, la prima ancora con fonti fantasma, e solo l’ultima con riferimenti reali.
La questione spinosa non è che i modelli linguistici inventano citazioni plausibili, (ieri, se volete recuperatevelo in podcast e se vi interessa, c’è stata un’interessantissima conversazione al riguardo tra il direttore di Radio Rock, Emilio Pappagallo, che sta impazzendo con test tra Claude e ChatGPT, e Enkk, ricercatore e docente di AI e eccezionale divulgatore del web, che smonta l’hype per l’AI), piuttosto che queste citazioni riescono a passare attraverso revisori e redazioni senza essere fermate subito. A luglio 2025 ci fu un altro episodio, raccontato da Nature: alcuni ricercatori avevano inserito messaggi nascosti in bianco o in caratteri minuscoli dentro paper per influenzare eventuali revisori automatici e spingerli a dare giudizi positivi. E, va da sé, il controllore artificiale c’è cascato.
Se qualcuno pensa: beh, basta un’altra AI che faccia il fact checking, e no, non funziona così. Anzi, sarebbe una catastrofe, la moltiplicazione dei pani e dei pesci allucinati. Nonostante la stessa Springer Nature citata sopra stava già cercando tool per filtrare allucinazioni, insomma l’editoria scientifica costretta a usare l’AI, una specie di Ghostbusters digitali chiamati a catturare fantasmi che hanno inventato loro. Perché l’AI (o meglio i LLM per loro struttura) non controllano che un dato corrisponda a uno studio reale, non effettuano una verifica dei fatti come farebbe un ricercatore serio, gli basta che tutto suoni plausibile (in contesti seri la plausibilità non basta), e nel controllo possono inventarne di nuove, altrettanto plausibili, un circolo vizioso di neuroni digitali, di testi che si confermano tra loro senza verificare mai fuori da se stessi, nel mondo reale.
Insomma, l’intelligenza artificiale, venduta come acceleratore del lavoro scientifico, rischia di incasinare proprio il punto in cui la scienza dovrebbe rallentare, e cioè il controllo.
Per quanto riguarda gli utenti comuni, in ogni caso, vi dico il contrario: meglio Claude o ChatGPT del vecchio parlare “per sentito dire” o “l’ho letto su Google”, come se Google fosse una fonte (e no, non lo è neppure la sintesi di AI Overview di Google, per le stesse ragioni di cui sopra).