Se siete affetti da bixonimania sappiate che non è una malattia mentale, dà sintomi molto visibili, uno dei quali è l’iperpigmentazione della zona perioculare, un alone scuro, violaceo intorno agli occhi legato all’esposizione alla luce blu degli schermi. Ma non potrete esserlo, perché questa malattia non esiste. Il perché non esiste però è interessante. Ne scrive su Nature Chris Stokel-Walker (già il titolo dice tutto: “Scientists invented a fake disease. AI told people it was real”), si tratta di un esperimento per testare l’affidabilità dei chatbot, producendo alcuni testi accademici fasulli. Esito? Vari chatbot l’hanno trattata come una patologia reale, restituendo pari pari sintomi, diagnosi, spiegazioni e consigli medici. L’esperimento, guidato dalla ricercatrice Almira Osmanovic Thunström dell’Università di Göteborg, voleva proprio verificare se si potesse creare quasi dal nulla una pseudo malattia e vedere se i modelli linguistici l’avrebbero assorbita e in seguito restituita come informazione affidabile, una bella trappola epistemologica per macchine, e le macchine ci sono finite dentro convintissime. Come è stata costruita questa trappola?
La finta malattia si chiamava appunto bixonimania, volutamente sospetta già dal nome, perché il suffisso “mania” in medicina rimanda di solito all’ambito psichiatrico, non a una condizione dermatologica o oftalmologica. Per seminare l’esca, il gruppo pubblicò nel 2024 due preprint falsi e altri materiali online. Uno dei preprint, ancora rintracciabile, si presenta con il titolo pseudo scientifico “Bixonimania: Exploring the Influence of Blue Light on Periorbital Hyperpigmentation on the Palpebrae — An RCT with an r-BS Design”, attribuito a una fantomatica Asteria Horizon University di Nova City, California. Insomma, Nature conferma che bastano pochi documenti falsi, scritti con tono giusto, nomenclatura credibile, e pubblicati in spazi che sembrano scientifici, per contaminare le risposte dei chatbot in ambito salute (e dunque potenzialmente e facilmente in qualsiasi altro ambito). Altro dettaglio interessante: stando alle ricostruzioni citate, la falsa patologia non si è fermata ai chatbot, ha contagiato (in senso epistemologico) anche gli umani, entrando a far parte (in parte) del discorso scientifico reale, citata o ripresa in lavori autentici (che a loro volta hanno involontariamente rafforzato l’idea dei chatbot, un circolo vizioso infinito). In sintesi: una falsità pubblicata online da materiali falsi ma pubblicati in forma autorevole entra nei modelli, i modelli la rilanciano, gli umani la ritrovano e la trattano come se fosse già passata da qualche forma seria di validazione collettiva (almeno un articolo reale su Cureus ha citato il falso lavoro, ovviamente subito ritirato).
Sarebbe qualcosa di cui ridere, se dietro non ci fosse in ballo l’intera economia dell’AI con centinaia di miliardi di investimenti. Non riguarda solo il vostro Claude o ChatGPT a cui descrivete i vostri sintomi, per le entrate delle Big Tech il vostro uso rappresenta un’entrata minima se non un costo (e sì, anche se avete un abbonamento Plus). L’esperimento aggiunge un problema al problema delle “allucinazioni” (quando l’AI inventa le cose), e il problema più grosso è che non sono bug fixabili con una patch, sono proprio strutturali, di come funzionano internamente i Large Language Model in generale (anche per questo nell’esperimento non vengono fatti i nomi dei chatbot utilizzati, altrimenti sarebbe diventato un “questo è meglio di quest’altro”, plausibilmente in date condizioni sbagliano tutti). Un’altra mina messa sulla strada dell’hype per l’AI e sulla scala della scalabilità infinita che in realtà sta scricchiolando già da un po’, nonostante le dichiarazioni dei CEO che parlano di AGI.
Detto questo, mentre sto finendo di scrivere, da ipocondriaco, pur sapendo che la malattia è falsa, vado a guardarmi allo specchio perché mi prude un occhio e già me la sento, la bixonimania. Ma questo è un problema mio.