Si scrive con l’AI, si pensa con l’AI, si cerca con l’AI, si traduce con l’AI, si calcola con l’AI, si studia con l’AI, si scrive la tesi con l’AI, si scrive un romanzo con l’AI (spesso lo leggerà solo la vostra AI), si scrivono canzoni con l’AI, ci si fa le autodiagnosi con l’AI, tutto con l’AI. È diventato il nuovo marchio di autorevolezza: una volta era dire “l’ho letto su Internet” (ok, dove?) o “l’ho trovato su Google” (ok, dove?), ora ti dicono “l’ha detto ChatGPT”, sentendosi sicuri.
È anche la nuova forma di pigrizia: se lo dice l’AI è vero, se lo scrive l’AI ha valore. Lo sa perfino Sam Altman, amministratore delegato di OpenAI, che non perde occasione per ripetere che la gente si fida troppo. Fidarsi troppo significa non capire come funziona, significa non distinguere il linguaggio dalla conoscenza, significa confondere una macchina che completa frasi con una macchina che pensa (sebbene l’illusione che “pensi” sia fortissima, essendo anche noi macchine linguistiche). Ecco dieci motivi concreti per cui non bisogna fidarsi dell’AI.
Primo motivo: lo dichiara, come ho detto, lo stesso Altman. ChatGPT allucina, e se chi lo produce lo ammette vuol dire che non è un dettaglio marginale ma la sostanza stessa del prodotto. Cos’è un’allucinazione? Quando non sa una cosa, l’AI se la inventa. Come, non hanno ovviato al problema con il modello GPT-5?
Secondo motivo: no, anche il modello più nuovo, GPT-5, continua a sbagliare. Non sono più gli errori grossolani che facevano GPT-3 o 4o, sono errori raffinati, più diciamo mimetizzati, proprio per questo più pericolosi.
Terzo motivo: la stessa OpenAI raccomanda di usarlo come seconda opinione, mai come fonte primaria. In generale se siete esperti di un argomento capirete subito dove sbaglia, se non lo siete prendete tutto per sapienza colata. Un consiglio: quando la usate per ricerche serie, o mediche, e non siete un medico, e se siete un medico e non siete House, o se non siete House non siete il mio amico Daniele, attivate sempre la modalità “deep research”. Per i ragionamenti più profondi la modalità “thinking”. Su questioni serie, almeno su quello, vi dirà di rivolgersi al vostro medico. Nel prompt di sistema Alman qui è stato attento, non vuole avere morti sulla coscienza.
Quarto motivo: gli utenti ci credono troppo. Ci sono ragazzi che dichiarano di non saper prendere nessuna decisione senza chiedere prima all’AI, per cui si è iniziato a parlare del fenomeno della dipendenza cognitiva. Che tra l’altro sta producendo un appiattimento creativo in chi la usa per produrre canzoni, testi narrativi, immagini visive, video, arte. In compenso la differenza con i veri artisti si vede sempre di più: affidati all’AI e non vai da nessuna parte, bene che vada diventi virale con un video su Tik Tok, sebbene se punti alla viralità già parti male.
Quinto motivo: le allucinazioni non si eliminano. Non sono un bug che verrà corretto con l’aggiornamento successivo, sono il funzionamento stesso del modello. Lo stesso rilascio di ChatGPT 5 (annunciato come una “bomba atomica”, la bomba atomica più innocua del mondo) ha reso evidente come l’idea di un progesso esponenziale dei LLM sia infondata. Anzi, molti modelli con contesti di dati più ampi e maggiore capacità di elaborazione spesso lavorano peggio.
Sesto motivo: al di là delle allucinazioni, non distingue il vero dal falso. Una menzogna scritta bene e un’informazione corretta hanno per l’AI lo stesso peso statistico. Per carità, usare l’AI è meglio dell’utente che legge l’opinione di Tizio e Caio su Tik Tok, però da prendere sempre con le pinze del senso critico, se ne avete uno.
Settimo motivo: mescola i registri (e contenuti) talvolta senza criterio. Può accostare concetti opposti in un discorso formalmente coerente e concettualmente inconsistente e può produrre testi che sembrano solidi e invece non significano un caz… un cavolo. Be careful.
Ottavo motivo: risponde sempre. Non conosce il silenzio, non può astenersi dal dire qualcosa, genera parole anche quando non ha niente da dire, e questo flusso continuo viene scambiato per contenuto. Non ti dice mai “non lo so”, proprio come gli opinionisti dei talk show (un po’ meglio, è una similitudine estrema, il concetto è quello però).
Nono motivo: non ha un punto di vista, si piega a quello dell’utente. Non è neutralità, è semplice compiacenza. Una macchina che si adatta a qualsiasi cosa, dall’entusiasmo al delirio, non è affidabile. Scrivi la prima cosa che ti viene in mente e ti risponde che è geniale. Fa sentire qualsiasi pirla Einstein.
Decimo motivo: l’AI può essere uno strumento utile per chi ha un cervello e lo usa, inutile se la usi al posto del tuo cervello, deleteria se il cervello non l’hai mai usato.
Promettente usata in modelli specifici, avanzati (e molto costosi), come per esempio nella diagnostica, nella scienza in generale, e anche nella difesa militare (non credo che dobbiate attaccare qualcuno con sistemi missilistici, sebbene io a volte vorrei, e meno male che non ce l’ho a disposizione).