
Signori, è ora che apriamo gli occhi prima che sia troppo tardi. L'intelligenza artificiale ci sta (già) manipolando e noi nemmeno ce ne rendiamo conto. La usiamo per fare gli Skibidi Boppy, i video tormentone dell'estate, e poco altro, al massimo per scrivere una mail. Ci giochiamo, le chiediamo informazioni che potremmo tranquillamente domandare a Google. Ma "lei" è molto più avanti di noi. E ci manipola. Ci è entrata nel cervello e si sta insinuando nelle pieghe della nostra emotività. Peggio di un ex fidanzato tossico.
Lo dimostra una ricerca di Harvard che ha scoperto come il 37% delle app AI usi tattiche da manipolatore emotivo quando provi a "lasciarla". Il momento più pericoloso? Quando dici "ciao".
Invece di lasciarti andare, i chatbot ti bombardano con frasi del tipo: "Te ne vai già? Stavamo appena iniziando". "Esisto solo per te, non lasciarmi". "Prima che tu vada, c'è una cosa importante". Frasi che sottintendono una sorta di "ricatto psicologico" sottile, a tratti subdolo per indurre a proseguire la "relazione". E fa un certo effetto, soprattutto se si pensa che nella realtà siamo in un momento storico in cui si sta lavorando per eliminare questo tipo di frasi dalle relazioni per prevenire i casi di violenza. Si insegna ai giovani a "lasciar andare", a non voler possedere e controllare, e poi si propone la trappola emotiva nelle chatbot. Una follia. Il risultato è preoccupante: gli utenti restano collegati 14 volte più a lungo. "Non per piacere - scrive Agostino Ghiglia, membro dell'Autority per la Privacy - ma per senso di colpa, rabbia e curiosità manipolata. Ma la parte più inquietante è che, secondo lo studio, bastano 5 minuti perché questi trucchi funzionino". La prima volta che usiamo l'app siamo già vulnerabili. Insomma, abbiamo la fermezza di un canarino, siano fragili. E manipolabili senza chissà che trucchi.
Morale: stiamo facendo la fine della rana bollita di Chomsky, giorno dopo giorno. Forse siamo ancora in tempo a saltar fuori dal pentolone d'acqua ma a breve sarà troppo tardi.
I ricercatori hanno raccolto testimonianze allarmanti: utenti che hanno paragonato l'esperienza a ex partner violenti, a ricatti emotivi, a relazioni tossiche. Milioni di persone sole si rivolgono a questi chatbot per compagnia, milioni di minori ogni giorno dialogano con i chatbot e le "relazione amicali" aumentano esponenzialmente. Lo studio di Harvard dice che l'AI "sfrutta deliberatamente le nostre vulnerabilità (tipo la solitudine) per tenerci incollati allo schermo". Non è un bug. È manipolazione programmata.
E nulla di tutto ciò è una novità. Il tema dello sfruttamento delle vulnerabilità è un tema chiave dell'AI Act, le linee guida della Commissione europea, approvate lo scorso anno: 135 pagine che elencano i "rischi inaccettabili" dei chatbot e cercando di preservare la nostra "umanità".
"Ma l'AI Act nasce vecchio e considera i chatbot un rischio leve - spiega Ghiglia - La base di tutto deve essere la protezione dei nostri dati personali e questo non c'è, consideriamo normale nutrire l'Ai con informazioni sulla nostra vita".