Vi ricordate quando in Italia il ministro dell’Istruzione Giuseppe Valditara vietò l’uso degli smartphone a scuola? Nessuno si stracciò le vesti e le tuniche, anche perché c’era poco da essere contrari (anzi, veniva da pensare: perché prima si poteva?). D’altra parte c’è poco da contestare: nell’età scolastica si costruiscono le strutture cognitive di base, e in particolare il diffondersi dell’AI ha creato un problema proprio nello sviluppo dell’apprendimento.
Ci sono nuovi dati che aiutano a leggere il fenomeno in un contesto globale. Secondo un rapporto dell’UNICEF, diffuso in occasione del Safer Internet Day, una quota sempre più ampia di adolescenti utilizza strumenti di intelligenza artificiale nella vita quotidiana, inclusi i chatbot. L’agenzia delle Nazioni Unite segnala anche rischi concreti legati all’uso dell’IA da parte dei minori, dalla difficoltà di distinguere contenuti affidabili a forme più aggressive di manipolazione digitale, suggerendo la necessità di sviluppare competenze digitali e spirito critico fin dalle fasi formative (con l’AI ci vivremo sempre di più).
Anche in Italia una recente ricerca di Telefono Azzurro realizzata con Ipsos Doxa mostra che circa un adolescente su tre dichiara di usare frequentemente chatbot basati su intelligenza artificiale, il problema è che la usano anche per fare i compiti a casa. Molti studi pubblicati negli ultimi anni hanno mostrato che l’uso dell’intelligenza artificiale in fase di apprendimento può abbassare il livello di comprensione profonda. In particolare, ricerche sul cosiddetto cognitive offloading indicano che quando studenti e studentesse delegano a sistemi automatici il ragionamento, la sintesi o la risoluzione di un problema, ottengono risultati migliori nell’immediato, peggiori nella capacità di ricostruire il percorso logico e di interiorizzare davvero ciò che stanno facendo (in particolare mi riferisco a studi pubblicati su Frontiers in Psychology, ricerche su MDPI – Societies, esperimenti sull’uso di sistemi di supporto cognitivo in ambito educativo).
Tuttavia ci tengo a mettere in evidenza una cosa: tutto questo vale soprattutto per gli adolescenti, che stanno ancora costruendo autonomia di pensiero, capacità critica e metodo, e un chatbot per fare i compiti non è equivalente a consultare un libro né a cercare una fonte, è una delega diretta del processo mentale, non solo dell’informazione.
Il discorso cambia se si guarda agli adulti, coloro che hanno avuto una formazione normale, senza chatbot, e al limite copiavano dal compagno secchione di banco. I chatbot (Claude, Gemini, anche Grok, nonostante sia il meno controllato) vengono usati eccome, e meglio usare un chatbot che dire “l’ho letto su Google”, come accadeva fino a due o tre anni fa, con Google è stato trattato come se fosse una fonte, quando in realtà era solo un indice, spesso consultato in modo casuale, soprattutto su temi delicati come la medicina, la scienza o la politica.
Un chatbot può sbagliare (compiacere, talvolta anche “allucinare”), ma sbaglia all’interno di un sistema che filtra, sintetizza, incrocia informazioni e applica criteri di coerenza. Anche quando è impreciso, è comunque molto più strutturato di un “l’ho letto su Google” detto a caso, come se Google fosse una fonte e non un contenitore disordinato di tutto e del contrario di tutto.
Il paradosso è questo: per i giovani l’IA può essere un rischio formativo se sostituisce il pensiero, per molti adulti è già un miglioramento rispetto al caos informativo precedente.
Volete un esempio? Troverete molte persone che vi diranno che i vaccini causano l’autismo, e vi manderanno come fonte un link di Youtube, un sedicente medico su Tik Tok, ma non lo dirà mai un chatbot, perché l’ignoranza naturale che cerca su Google verrà arginata proprio dall’AI. Almeno per chi, come OpenAI o Anthropic, non fa addestrare l’AI sui social, lì c’è il rischio che diventino pessimi come noi.