A proposito dell’inchiesta appena uscita sul Guardian firmata da Dan Milmo, global technology editor, che riapre una questione più profonda del solito dibattito sull’accuratezza dell’intelligenza artificiale, il punto centrale è un fatto sotto gli occhi di tutti (almeno di chi cerca su Google cosa sono i propri sintomi): non tanto se le risposte mediche di Google siano corrette, quanto come vengono presentate.
Problemino piccolo piccolo (detto ironicamente): con AI Overviews gli avvisi di prudenza sanitaria non compaiono nella prima risposta visibile, solo dopo l’espansione del contenuto e in posizione marginale. In altre parole l’utente riceve prima una sintesi assertiva, graficamente simile a un verdetto, e solo dopo (se continua a leggere) incontra l’incertezza e l’invito a consultare un medico. Tra l’altro AI Overviews sta scatenando polemiche su vari versanti, per esempio evitando che le persone clicchino sui siti uccidendo editoria, blog, e contenuti in generale che vivono di pubblicità (qualsiasi sito, in pratica).
In medicina la questione è più delicata: la sequenza conta. Una risposta generica e rassicurante può essere più pericolosa di una risposta esplicitamente dubbia, perché blocca la ricerca reale. È per questo che diversi medici e studiosi di interazione uomo-macchina stanno segnalando il rischio (sui chatbot in generale, Google però è più sotto accusa per le suddette ragioni): l’interfaccia confeziona una risposta “autorevole” prima di suggerire prudenza. (Tra l’altro Wired evidenzia che lo stesso meccanismo di sintesi “autorevole in alto” può essere sfruttato anche per truffe o numeri falsi, proprio perché l’utente tende a fermarsi al riassunto iniziale, e studi citati da Reuters indicano inoltre che la disinformazione con sembianze credibili inganna più della falsità esplicita, cioè esattamente ciò che accade quando una risposta sintetica appare come già validata).
In sintesi la posizione di Google resta molto ambigua: la cautela c’è solo che arriva dopo l’effetto di autorità, e la responsabilità si sposta così sull’utente (medio, vale a dire la maggior parte) che dovrebbe cercare il dubbio dentro una risposta che ha già assunto una postura di competenza.
Vorrei sottolineare che la differenza con i chatbot conversazionali puri (anche in versione gratuita) è evidente. Prima dell’AI su Google chi aveva un sintomo cercava e scorreva risultati diversi, scegliendo spesso quello più rassicurante o più catastrofico a seconda dell’ansia (allarmandosi o tranquillizzandosi, e anche questo non andava bene, almeno però uno finiva, che ne so, sul sito di Humanitas). Nei chatbot la risposta unica tende invece a includere da subito incertezza, contesto e invito esplicito a consultare un medico, e anche il contrario se i sintomi descritti sono comuni (soprattutto ChatGPT e Claude), ponendo subito altre domande di verifica e di contestualizzazione.
Un paradosso: Google è la società più economicamente solida e a maggior ragione dovrebbe prestare più attenzione (che invece prestano altri), in ogni campo, sulla salute ancora di più. Insomma, innestare una risposta sintetica e percepita come autorevole (la prima di AI Overviews) nel gesto più comune del mondo, la ricerca (“ho le palpitazioni, è un infarto?”), preoccupa: è la fusione tra motore di ricerca e “dottor Gemini” messo in cima. C’è anche un altro elemento: tendere a rassicurare sempre l’utente è pericoloso (quanto il contrario, solo che il contrario rende meno), cosa che società enormi ma più fragili al momento (come OpenAI e Anthropic), checché se ne dica, non fanno.
Io ve la dico più brutalmente: da uccidere i siti a uccidere gli utenti il passo è breve, ma conviene anche a Google? Ci avranno pensato, per carità, solo che ci stanno pensando anche gli altri, e i dubbi sono più grandi del gigante Google.