
Magari avete letto da qualche parte titoli che dicono che l’AI è sotto processo perché imbottisce i giovani di fake news. Il che non è vero, a mio parere, a meno non se si considerano solo i dati senza ragionarci su un tema molto delicato. Vado comunque subito alla notizia.
La Federal Trade Commission ha aperto un’inchiesta su sette colossi dell’intelligenza artificiale (Google, Meta, OpenAI, Character.AI, xAI, Anthropic e Snap) per capire come testano i loro chatbot, come controllano i rischi di disinformazione e come proteggono bambini e adolescenti che li usano come confidente digitale. Attenzione (dettaglio non marginale) è un “test live” fatto dall’FTC, non sono sessioni provocatorie o Deep Research con prompt estremi: l’agenzia ha chiesto alle aziende report dettagliati, metriche, policy interne, spiegazioni su come misurano e mitigano i rischi. È una mossa importante, perché i chatbot possono dire falsità, e quando lo fanno lo fanno con un tono che sembra scritto dal manuale della Treccani. Tuttavia, attenzione: non ci sono indagini su come vengono usati i chatbot (anche perché già i bambini non dovrebbero usarli, e sugli adolescenti ci vuole il consenso dei genitori). In ogni caso, il tema che mi interessa sono le fake news.
Anche perché la disinformazione non è nata con i chatbot (magari). È nata offline (quando faceva meno danni), è esplosa con Facebook, è diventata virale su Twitter, ha trovato una casa su TikTok e Instagram, dove ancora oggi campa benissimo (sul lato nutrizionale Gabriele Bernardini o Dario Bressanini passano la vita a contrastare le fake news). Per dire: uno studio del MIT ha dimostrato che le fake news sui social si diffondono più rapidamente di quelle vere, e Google da anni è il miglior alleato del bias di conferma: uno studio ha mostrato che oltre il 70% degli utenti clicca solo i risultati che confermano la propria idea iniziale.
I chatbot, ovvio, cambiano lo scenario: non ti offrono dieci link fra cui scegliere, ti danno una risposta unica e le persone sono portate a crederci (è “intelligenza artificiale”, per cui gli si dà più credibilità, specie se non si è esperti in ciò che gli si chiede). Nei benchmark più seri i modelli avanzati hanno un tasso di errore intorno al 15-30% su fatti consolidati, che può arrivare oltre il 50% su temi complessi o appena emersi. Perché se insisti con prompt furbi li puoi indurre a dirti quello che vuoi sentire (questo è un problema dei chatbot, alla fine devono sempre compiacere l’utente, mai sentito uno che ti dica “deficiente, non è così”).
La differenza però è che qui il problema se lo stanno ponendo e probabilmente lo risolveranno: i modelli vengono aggiornati, vengono aggiunti filtri e retrieval di fonti verificate, vengono fatte audit pubbliche e ora l’FTC pretende spiegazioni formali. C’è una curva di miglioramento: da un 30% di errori si può scendere al 10%, forse meno.
Invece c’è un problema (tutto umano) che non si risolverà mai: l’economia del bias di conferma. I fabbricatori di fake news continueranno a produrle, gli influencer continueranno a campare su contenuti che alimentano paure e indignazione, il pubblico continuerà a cliccare solo ciò che gli dà ragione. È strutturale: non c’è aggiornamento software che elimini il desiderio di sentirsi confermati. E se i chatbot almeno possono diventare meno compiacenti, i social e i loro algoritmi continueranno a premiare la bugia che genera clic.
Una cosa su cui le scuole dovrebbero concentrarsi, oggi più che in qualsiasi altra epoca: controllare le fonti, sempre. E se una fonte ti dice che i vaccini causano l’autismo, o che l’Olocausto non è mai esistito, la colpa è di chi va a cercare ciò che asseconda ciò che pensava.
Vale per chi cerca informazioni online senza saper cercare (cercando solo ciò che vuole), per chi ascolta influencer in cerca di clic, e anche per chi forza un chatbot a farsi dare la risposta che vuole. Mentre quest’ultima cosa gli sviluppatori potranno ridurla, ridurre i bias di conferma sarà molti difficile, perché non possiamo aggiornare i firmware dei cervelli umani.