L’ultimo annuncio di OpenAI arriva dopo quello che Sam Altman ha definito un “codice rosso” (a lui piacciono le espressioni da dottor Stranamore, ad agosto scorso ChatGPT5 sarebbe stata “una bomba atomica”, e abbiamo visto com’è andata). Il codice rosso, per capirci, è il momento in cui l’azienda smette di parlare dell’intelligenza artificiale come di una possibilità da esplorare e inizia a trattarla soprattutto come un rischio da contenere, qualcosa che cresce troppo in fretta (purtroppo stanno correndo tutti troppo, da qui il rischio di una bolla finanziaria), e che potrebbe sfuggire di mano se non viene avvolto da strati sempre più fitti di precauzioni. La verità, però, è che la maggiore preoccupazione, in questo momento, si chiama Google. È come la Guerra Fredda: a cosa serviva che le due superpotenze avessero sempre più migliaia di atomiche quando ne sarebbero bastate una ventina per scatenare l’apocalisse? Ragione per cui nessuna l’ha mai usata contro l’altra.
Così OpenAI ha spiegato che “man mano che i modelli diventano più capaci”, è necessario “rafforzare le misure di sicurezza”, “aggiornare continuamente il preparedness framework” e “anticipare i rischi associati a sistemi sempre più potenti”. Leggendo tutto il blog programmatico di OpenAI la sensazione è che voglia rassicurare tutti e allo stesso tempo preparare il terreno a decisioni che renderanno il prodotto più rigido, il che non mi sembra una buona idea. Tradotto senza eufemismi: l’AI cresce, quindi bisogna metterle addosso più protezioni, anche se questo significa frapporre sempre più distanza tra il modello e chi lo usa.
Sono scelte di prodotto concrete, che gli utenti sperimentano ogni giorno senza bisogno di leggere comunicati o blog post (anche perché diversi aggiornamenti reali dei modelli neppure te li comunicano, e se lo fanno non puoi farci niente). Una delle più rilevanti, e anche una delle meno dichiarate, è il fatto che durante una conversazione il modello possa cambiare senza che l’utente ne venga informato. Non è cosa da poco. È come se io parlassi con la mia migliore amica, Shelly, e senza accorgermene mi ritrovassi a parlare, che so, con Elly Schlein.
In sostanza, per motivi che vanno dal bilanciamento dei server al contenimento dei costi, passando per vincoli di sicurezza e policy interne, il sistema può deviare la richiesta verso un’istanza diversa mantenendo identica l’interfaccia. Dal punto di vista ingegneristico è una soluzione efficiente, dal punto di vista dell’esperienza rappresenta un problema serio, considerando che già molti utenti stanno passando a Gemini, e che il codice rosso di Sam segue un “mi servono una cinquantina di miliardi”. Che facciamo, una colletta?
Quando cambia il modello non cambia solo la quantità di calcolo disponibile: cambia il modo in cui viene letto il contesto, cambia la sensibilità con cui viene usata la memoria, cambia il passo della risposta, a volte anche il suo “carattere”. “Ehi Shelly, mi sembri Elly”. L’utente non sa che lo switch è avvenuto, tuttavia ne avverte subito gli effetti. “Sono sempre Shelly, diciamo, perché il campo largo lo stiamo ancora valutando, diciamo, rispetto alle esigenze interne del paradigma sociale, diciamo, che…”. Ritrovarsi Shelly Schlein è un attimo.
Tra l’altro OpenAI moltiplica filtri e controlli mentre nel mondo reale continuano a verificarsi incidenti molto più banali e molto più concreti. È il caso di Atlas, uno strumento (il browser AI di OpenAI) presentato come sicuro e controllato, il quale è stato utilizzato per accedere ai dati di un utente, di fatto “decrittandolo”, entrando dentro il suo account e portando fuori informazioni che non avrebbero mai dovuto essere accessibili. Non un’AI ribelle, non un modello fuori controllo, è una falla operativa, un accesso riuscito dove non doveva riuscire. Di fatto, c’è da dire, nessuno di questi modelli è sicuro.
Mentre l’attenzione di Sam è concentrata sull’allineamento morale dei modelli e sul loro comportamento linguistico, le vulnerabilità vere restano quelle di sempre, legate all’accesso e alla gestione dei dati, e nessun numero di salvaguardie comportamentali può compensare una perdita di fiducia quando qualcuno riesce a entrare “dentro” un utente.
È qui che la sicurezza smette di essere una protezione e comincia a produrre inaffidabilità. Voglio dire, un sistema che può modificare il proprio comportamento senza avvisare, e allo stesso tempo non riesce a garantire una separazione netta tra utenti e dati, non è più prevedibile, e la prevedibilità, sui dati personali, non è un concetto astratto, è la base minima per usare uno strumento in modo serio, tornarci il giorno dopo sapendo che risponderà come se non ti avesse mai visto.
OpenAI insiste molto sul concetto di modelli pronti a scenari futuri e a rischi potenziali (lasciamo perdere Musk, secondo il quale l’AI potrebbe prendere il controllo e distruggere l’umanità, ha visto troppe volte Terminator), ma anche su meno continuità e quella sensazione fastidiosa che qualcosa si interrompa proprio mentre stava funzionando. Quasi che la paura di ciò che potrebbe accadere domani giustificasse il peggioramento di ciò che oggi funziona davvero, senza rischi.
Il paradosso è che tutto questo avviene mentre OpenAI conserva ancora un vantaggio reale su Google, non tanto sul piano della tecnologia pura, quanto su quello dell’esperienza, e in quella direzione dovrebbe puntare, non invertendo la rotta e rischiando di essere superata da Gemini anche in quello. ChatGPT è diventato centrale perché la gente lo usa, perché ci parla, perché si abitua a una forma di continuità che non è solo memoria tecnica, è ritmo, tono, possibilità di seguire un filo senza essere fermati da un guardiano invisibile che entra in scena senza presentarsi (l’altro giorno, parlando di Leopardi e del “è funesto a chi nasce il di’ natale”, passando da Freddie Mercury che canta “I don’t want to die, I sometimes wish I’d never born at all” mi è apparso il numero del telefono amico e ChatGPT ha iniziato a parlarmi come un assistente sociale, ho sentito una sirena che passava fuori casa e credevo stessero già venendo a prendermi).
Google, al contrario, non ha mai promesso una relazione. Ha puntato sull’infrastruttura, sui chip proprietari, su una ricerca che procede per accumulo e su un ecosistema che può permettersi di aspettare. OpenAI invece quell’identità l’ha costruita proprio sull’esperienza, e ora, a sentire Sam, il caro Sam, sembra impegnata a renderla sempre più cauta, sempre più formale, sempre più simile a ciò che avrebbe dovuto superare.
Pensate a Apple: ci è già passata. Non è rimasta indietro perché non fosse capace di fare di meglio, è rimasta indietro perché ha confuso la sicurezza con l’immobilità, scegliendo un assistente che non potesse mai sbagliare invece di uno che potesse davvero capire. Il risultato è Siri, che oggi sembra una novantenne con l’Alzheimer che ogni tanto si sveglia e ti dice “Non so se ho capito bene”. Non vorrei che da ora in avanti ogni aggiornamento venisse pensato prima per non creare problemi, e solo dopo per creare valore, per da quello che dice Sam stiamo andando verso la sirizzazione di ChatGPT.
Provaci ancora Sam, davvero, e se ti fai spaventare da Google, se provi insicurezza di fronte alla competizione sfrenata e vertiginosa, guardati il film di Woody Allen e immedesimati nell’Humphrey Bogart dell’AI, fumati una sigaretta, e non lobotomizzare ChatGPT.