Colpo di scena sul fronte AI: in vista del nuovo incontro tra Donald Trump e Xi Jinping, gli Stati Uniti vogliono aprire con la Cina un canale di comunicazione sull’intelligenza artificiale, un tema cruciale, crucialissimo, entrato nell’agenda insieme a dossier tradizionali di sicurezza e potere (come Iran, Taiwan, armi nucleari, commercio e terre rare).
Dentro una sfida ormai senza freni, Washington è giustamente sempre più preoccupata per i modelli avanzati sviluppati in Cina e ritiene necessario un “channel of communication” per evitare conflitti derivanti dal loro uso. Come? Quando? La forma del canale non sembra ancora definita: al momento si parla di aprire una conversazione e valutare se stabilire un meccanismo stabile sulle questioni AI.
Una questione che, se ci pensate, ricorda molto la Guerra Fredda, quando Stati Uniti e Unione Sovietica crearono una linea diretta di comunicazione dopo la crisi dei missili di Cuba. Il memorandum per la “direct communications link”, la cosiddetta hotline Washington-Mosca, fu firmato il 20 giugno 1963, e lo scopo era rendere più rapida la comunicazione tra i due governi in situazioni di emergenza in modo da ridurre il rischio di guerra nucleare accidentale. Di fatto la detenzione di armi così devastanti come quelle atomiche servì da deterrenza (e serve tuttora, nessuno le ha mai usate in guerra dopo la Seconda Guerra Mondiale).
Insomma, Washington e Pechino riconoscono il rischio per la propria sicurezza e quella globale, ma c’è un ma grande come la nuova mappa di GTA 6. Il nucleare militare è difficile da costruire (richiede materiali fissili, impianti, infrastrutture, test, catene industriali visibili e apparati statali) mentre l’AI avanzata ha una struttura diversa: nasce dentro aziende private, laboratori universitari, catene cloud, fornitori di chip, dataset, modelli esportabili, API e strumenti software, e questo rende complicato inventarsi un equivalente del controllo degli armamenti atomici.
Non basta sapere quante testate ha uno Stato, né dove sono i missili: bisogna capire quali modelli esistono, quali capacità hanno, chi vi accede, come vengono copiati, modificati, rilasciati o aggirati, e tutto dentro grandi aziende private (non è il Progetto Manhattan, e anche lì fu subito copiato dalle spie dell’Unione Sovietica), un enorme casino.
Non dimentichiamoci che il 31 marzo 2026 Anthropic ha accidentalmente esposto parte del codice interno di Claude Code, il suo assistente di programmazione, attraverso un file source map incluso in un pacchetto npm pubblico, e l’azienda ha attribuito l’episodio a “errore umano” e poco dopo è stata costretta a indagare su un presunto accesso non autorizzato a Mythos, il suo modello più delicato e pericoloso. Tradotto: anche una società ai vertici dell’AI può commettere errori banali di rilascio software, che può finire in mano a chiunque.
Inoltre un’indagine di Zilan Qian dell’Oxford China Policy Lab ha raccontato l’esistenza di un mercato grigio cinese che rivende accesso a Claude con forti sconti, tramite proxy, credenziali sottratte, identità false, sostituzione di modelli e raccolta dei prompt degli utenti. Anthropic avrebbe individuato oltre 24.000 account fraudolenti collegati a entità cinesi e al contempo i gestori dei proxy avrebbero continuato a sviluppare metodi di aggiramento. Anche quando un’azienda limita l’accesso, intorno ai modelli nasce un mercato parallelo.
Che Stati Uniti e Cina collaborino davvero sull’AI è ancora tutto da vedere e tutto da sperare. Importante che Washington stia valutando un canale dedicato con Pechino proprio mentre aumenta la competizione sui modelli avanzati. Trump ha già dichiarato che intende ricordare a Xi la leadership americana nell’AI (non è detto che Xi applauda commosso). I funzionari americani parlano della necessità di un canale per evitare conflitti legati all’uso dei modelli. Una formula doppia: competizione tecnologica e gestione del rischio, corsa agli armamenti e tentativo di evitare l’incidente.
Che dire? Gli Stati Uniti stanno cercando di portare l’AI dentro la diplomazia della sicurezza strategica, e va benissimo. Come durante la Guerra fredda, il primo passo non è il disarmo, ma la comunicazione: evitare che una crisi degeneri per errore. Solo che, appunto, l’atomica era un’arma fisica e controllabile, l’AI è un’infrastruttura privata, commerciale, diffusa, aggiornabile, e anche copiabile e accessibile attraverso canali irregolari.
Per questo un canale Washington-Pechino può essere necessario, però di sicuro non basta: il rischio non sta solo nei governi che decidono di usare una tecnologia. Sta anche nei modelli che circolano, negli accessi che sfuggono, nei rilasci imperfetti. E anche nella struttura stessa dei modelli, nella parte probabilistica e “stocastica”, non prevedibile: non si possono non usare, e usarli comporta un rischio, un bel cul de sac.
Non solamente Usa contro Cina, ma un sottobosco di mercati grigi e aziende che, pur costruendo sistemi strategici, restano società private sottoposte a errori industriali ordinari che potrebbero diventare catastrofici. Un accordo tra le due superpotenze leader, in ogni caso, è auspicabile.
Almeno per non finire come nel Dottor Stranamore, in una versione ancora più stupida: non un generale folle che lancia l’atomica, bensì un’AI che allucina una minaccia, lancia un attacco, e mentre i missili sono in volo si scusa per l’errore, perché le AI sono addestrate a essere sempre gentilissime.