Provaci ancora Sam, titolo di uno dei capolavori di Woody Allen, che però qui evoco per parlare di un altro Sam, il CEO di OpenAI, il quale a livello comunicativo è peggio della mia parrucchiera. Perché nell’ultimo anno ha sviluppato un talento particolare: dire sempre la cosa giusta nel momento sbagliato, o la cosa sbagliata nel momento giusto, o la cosa sbagliata nel momento sbagliato, neppure per sbaglio la cosa giusta nel momento giusto.
Prima di arrivare all’ultima scivolata di ieri sulla banana, (neppure su Nano Banana di Google perché le banane se le mette lo stesso Sam Altman davanti ai piedi prima di camminare), facciamo un recap dell’ultimo anno, iniziando con l’annuncio di GPT-5.2. “Mi tremano le mani, sarà come l’atomica, non so se rilasciarlo”, e lo rilascia dopo una settimana, e il bello è che più che un’atomica è un petardo. Un miglioramento, certo, ma niente di sorprendente e anzi, tantissimi utenti chiesero il ripristino della versione precedente.
Passano i mesi, tutti si sono dimenticati dell’annuncio atomico di Sam, e Google presenta Gemini Pro 3, a dire la verità neppure tanto in pompa magna, quasi come se niente fosse sebbene il modello fosse molto più avanzato del precedente e viene spontaneamente osannato da tutti i benchmark e i commentatori che si occupano di tech (anche troppo).
Sam va nel panico, e che fa? Un annuncio. Anzi, prima interviste, dichiarazioni, allarmi sulla velocità della corsa all’intelligenza artificiale, scenari alla Skynet, e infine un “codice rosso” rivolto a OpenAI, la sua stessa società, e non un “codice rosso” interno, lo dice a tutti, ai microfoni di mezzo mondo. Perché “Gemini Pro 3 sembra imbattibile”, tanto che anche lì dentro Google saranno rimasti perplessi. “Codice rosso” dopo “bomba atomica”, due boomerang che neppure se uno se li tira in faccia senza neppure lanciarli ci riesce. Insomma, altra strategia comunicativa curiosa: trasformare un aggiornamento di Google in un momento di crisi esistenziale per OpenAI, in un attacco di panico. Il risultato del “codice rosso”? Ovviamente amplificare a dismisura le capacità percepite dagli utenti di Gemini Pro 3, neppure Google sarebbe riuscita a fare di meglio.
Infine il capitolo più recente, quello del Pentagono: OpenAI firma un accordo con il Dipartimento della Difesa americano, e fin qui nulla di strano, non fate gli ingenui, gli eserciti adottano sempre le tecnologie più avanzate disponibili, dai radar a internet ai GPS ai droni, e l’AI non fa eccezione, e è anche normale e giusto sia così. Se esiste una tecnologia strategica, il primo posto dove finirà è un laboratorio militare, altrimenti finità in un laboratorio militare nemico (spesso in entrambi, vedi l’atomica e il Progetto Manhattan, almeno però non l’ha avuta Hitler).
Ma non stiamo parlando di questo, piuttosto del tempismo al contrario di Sam. Perché tutto questo succede nel momento peggiore possibile, succede mentre c’è una guerra in corso, gli USA e Israele che attaccano l’Iran, un casino mondiale, e succede mentre l’opinione pubblica è molto divisa, e succede, soprattutto, subito dopo che un’altra azienda, Anthropic, ha detto di no. Anthropic, l’azienda che sviluppa Claude, uno dei modelli più avanzati al mondo, diretta concorrente di OpenAI e ChatGPT.
Per farvela breve il Pentagono chiede a Anthropic di rimuovere alcune salvaguardie nei suoi modelli, non limitazioni tecniche, limiti etici molto precisi: niente uso per sorveglianza domestica di massa e niente sistemi d’arma completamente autonomi. Insomma, Anthropic vuole mantenere il controllo su usi impropri del proprio prodotto.
Secondo i militari non può essere un’azienda privata a stabilire cosa può o non può fare l’esercito con una tecnologia legalmente disponibile e qui succede qualcosa di piuttosto raro nel mondo della tecnologia, il CEO di Anthropic, Dario Amodei dice di no, rifiutandosi di eliminare le salvaguardie, e aggiungerei: risposta giusta al momento giusto. L’azienda di Claude non entra neppure in questioni specifiche di geopolitica attuale, si limita a sostenere che i sistemi di intelligenza artificiale attuali non sono abbastanza affidabili per essere usati in armi autonome o in sistemi di sorveglianza di massa (non ha torto, non sono ancora affidabili per usarli come agenti in rete al posto dell’utente o di un’impresa che produce carta igienica, figuriamoci lì).
In ogni caso, risultato: Anthropic viene di fatto esclusa da una parte dei contratti federali (e minacciata da Trump) e nel giro di poche ore entra in scena OpenAI, bella bella, e con una dichiarazione di Sam (“abbiamo firmato noi con il Pentagono”) perfetta se seguiamo la logica del momento peggiore possibile, e nel giro di poche ore milioni di utenti lasciano ChatGPT e passano a Claude, il quale viene percepito come chatbot “pacifista” (non è proprio così, ma è un’altra storia).
Mica è finita qui. Il nuovo autoboomerang di Sam si chiama “peggio la pezza del buco”, poteva farsi mancare la pezza? Dopo la polemica pubblica, Sam spiega che l’accordo è stato mal interpretato, e che verrà chiarito, e che “forse” verrà rivisto, che non significa esattamente quello che molti pensano e aggiunge la ciliegina sulla torta: “rivedremo alcune clausole”. Dopo aver firmato l’accordo, il che solleva una domanda piuttosto semplice anche a chi non segue questo campo: scusa, Sam, quando hai firmato il contratto, cosa pensavi di aver firmato? L’avevi letto? Qualcuno per te l’aveva fatto?
Cioè non è una clausola scritta in piccolo su un abbonamento telefonico, stiamo parlando di un accordo tra una delle aziende più potenti della Silicon Valley, da cinquecento miliardi di dollari, e il Dipartimento della Difesa degli Stati Uniti (e oltretutto di un contratto da duecento milioni, spiccioli rispetto all’entità dell’accordo, anche quello, forse, da capitalizzare in futuro).
Ripeto, nulla di strano in tempi normali, però se c’è una guerra in corso, se ti sei sempre presentato come la società più attenta alla sicurezza, se lo fai mentre un concorrente ha appena rifiutato un contratto per motivi etici, il risultato è inevitabile: la discussione smette di riguardare la tecnologia e diventa una polemica sulla credibilità di chi la produce.
A pensarci bene forse tutta questa storia si sarebbe potuta evitare con un passaggio molto semplice, bastava che Sam chiedesse a ChatGPT. (Ci ho provato io, e la risposta in sintesi è stata questa: “A livello comunicativo? Non ne azzecca una”). Non so cosa dirti, caro Sam, perché io ci tengo a OpenAI, e ti ammiro anche.
Prima di parlare pensaci, prima di firmare leggi, fai leggere quello che firmi al tuo team, a ChatGPT, a Claude, a Gemini, a chi ti pare, e appenditi un poster di Steve Jobs nella cameretta, prendi lui come esempio su come e quando e perché parlare. Con immutato affetto.