Ieri Klaus Schwab, fondatore del World Economic Forum, ha pubblicato su Time una riflessione sull’“età intelligente”. Schwab parla di una trasformazione lenta che riguarda la fiducia (non quella tra le persone, ma nei sistemi tecnologici utilizzati dalle persone per comprendere la società) come condizione necessaria al funzionamento delle società.
“La verità e la fiducia sono spesso trattate come virtù, in realtà funzionano come condizioni: i prerequisiti per società coerenti, istituzioni funzionali e sistemi stabili”, scrive Schwab. La fiducia che intende Schwab più che una questione etica è operativa. Quando viene meno, non succede necessariamente qualcosa di clamoroso, semplicemente diventa più difficile coordinarsi, decidere, e agire insieme, insomma una grande confusione (com’è sempre stato, davvero diventa peggio di così?).
Tra i vari punti toccati da Schwab ce n’è uno che secondo me merita attenzione: il rischio che la conoscenza scientifica venga percepita come una narrazione tra le altre. Il che è vero, e però non mi convince se legata all’AI. La scienza non ha mai goduto, nemmeno prima dell’intelligenza artificiale, di una fiducia piena da parte dell’opinione pubblica. In Occidente la diffidenza verso il sapere scientifico è un fenomeno di lunga durata, visibile nel successo delle medicine alternative, delle terapie non validate, della diffidenza verso i vaccini, delle spiegazioni semplificate che promettono soluzioni senza costi o controindicazioni (io nei farmaci metterei anche le controindicazioni nel non prendere un farmaco, qui però ci arrivo alla fine).
Comunque sia la differenza secondo Schwab non è la sfiducia, ragiona più sul contesto in cui questa sfiducia si muove. Schwab lo formula in modo chiaro: “Diventa sempre più difficile per i cittadini stabilire se ciò che vedono e sentono sia autentico. Di conseguenza, l’idea stessa di una realtà condivisa si sta indebolendo”. Non è soltanto una questione di vero e falso. È la difficoltà crescente di riconoscere un terreno comune, qualcosa su cui basare il disaccordo stesso. In questo spazio, la scienza non viene più solo contestata, cosa che è sempre avvenuta (se la contestazione del geocentrismo avesse avuto bisogno di un referendum crederemmo ancora che il Sole gira intorno alla Terra, “la scienza non è mai stata democratica”, come ripete sempre Roberto Burioni), casomai viene messa sullo stesso piano di altri discorsi, valutata come una versione possibile tra le altre.
Schwab insiste su un punto che chiarisce bene il problema: “La fiducia non è sentimentalismo, è il sistema operativo dell’ordine sociale e politico”. Secondo lui in questo clima in cui le AI assorbono sempre più AI che ereditano discorsi popolari, la scienza rischia di perdere il suo ruolo specifico, quello di strumento che orienta le decisioni, non di racconto che compete per attenzione, accelerando dinamiche già in corso. Schwab è piuttosto netto su questo punto. L’AI genera risposte coerenti e ben scritte, e il problema non è che questi contenuti siano necessariamente falsi, ma che rendano meno centrale la distinzione tra vero e falso. Detta altrimenti: quando molte cose appaiono plausibili, la verifica perde peso rispetto all’utilità immediata, e se l’AI verrà sempre più usata come strumento tuttofare (nei blog, nei social, perfino negli articoli) produrrà bias che alimenteranno le stesse AI, un circolo vizioso che senza una verifica competente (a monte, nella scelta delle fonti della macchina, o a valle, in chi la utilizza controllando le fonti) rischia di minare la fiducia, o creare un’entropia informativa.
Il rischio principale non è quindi la disinformazione, che è sempre esistita, è l’indebolimento dell’idea stessa di prova, anche perché le macchine sono sempre più viste come un oracolo. Sempre più persone mi dicono una cosa falsa e rispondono “l’ha detto ChatGPT”.
A questo punto è però necessario aggiungere una precisazione, siccome se la percezione pubblica della scienza è fragile, la scienza come pratica lo è molto meno. Esiste una comunità scientifica che non funziona per consenso emotivo, non decide per maggioranza, non si affida a strumenti automatici per stabilire cosa sia vero. È una comunità che lavora su verifiche, controlli incrociati, errori corretti pubblicamente, risultati che restano o cadono indipendentemente dall’opinione popolare. Gli scienziati useranno modelli AI specifici e costosi, non ChatGPT (non sono sicuro sui medici di base). È per questo che un antibiotico funziona e un prodotto omeopatico è solo un placebo, e al contempo l’omeopatia e i rimedi antichi e la diffidenza popolare verso la scienza prospera ben prima dell’AI (mentre nell’ultimo secolo, grazie al progresso scientifico e della medicina, la vita media è triplicata).
Schwab chiude la sua riflessione con un avvertimento: “Se la verità continua a frantumarsi e la fiducia continua a deteriorarsi, il mondo rischia di entrare in una fase di instabilità cronica, politica, economica e sociale”.
Per carità, i livelli che tira in ballo Schwab sono diversi, ma davvero crede che l’AI possa fare più danni di quanto abbia fatto “l’ho letto su Google”, o peggio delle opinioni e delle fake news dei social generate negli ultimi vent’anni dalle “intelligenze” umane?