IA e nucleare, lo scenario da incubo: ecco cosa potrebbe succedere

Dalla corsa delle superpotenze all’uso dell’intelligenza artificiale nei sistemi di difesa ai timori su un suo ruolo nel comando nucleare: esperti divisi tra deterrenza, escalation e rischi apocalittici

IA e nucleare, lo scenario da incubo: ecco cosa potrebbe succedere

"Chiunque diventi leader nell'intelligenza artificiale diventerà il dominatore del mondo". Così si esprimeva il presidente russo Vladimir Putin nel 2017, quando l'ex agente del Kgb studiava ancora come lanciare l'assalto finale all'Ucraina ed era di là da venire l'irruzione sul mercato dell'ultima generazione di GPT. Eventi solo in apparenza slegati tra loro, considerato che la tecnologia e l'arte di fare la guerra rappresentano da sempre un binomio inscindibile. Arrivando in velocità ai giorni nostri, tra le superpotenze oggi è dunque sempre meno nascosta la corsa contro il tempo evocata dallo zar del Cremlino per integrare l'intelligenza artificiale nei sistemi di difesa nazionali.

Le continue innovazioni legate all'IA hanno aperto una serie di prospettive che da Sun Tzu in poi gli strateghi della guerra potevano difficilmente immaginare. Controllare un territorio con soldati e carri armati non è più sufficiente quando puoi annichilire l'avversario con armi sofisticate addestrate per colpire in maniera coordinata o paralizzare il sistema energetico di una nazione senza lanciare un singolo missile. E se il futuro dei confltti viene scritto da sofisticati sistemi elettronici più velocemente del tempo impiegato dai generali per preparare un piano di guerra, gli esperti più pessimisti sollevano perplessità e preoccupazioni per quello che ci attende.

C'è un aspetto in particolare, il possibile incrocio tra l'IA e la gestione degli arsenali nucleari e un ipotetico catastrofico scontro tra le superpotenze con tali armi di distruzione di massa, che toglie il sonno a diversi addetti ai lavori facendo emergere scenari apocalittici a metà tra "Terminator", "WarGames" e "Il Dottor Stranamore". Dell'argomento se n'è occupato Politico in un lungo approfondimento che riporta opinioni e analisi che il dibattito sull'IA non può permettersi di trascurare.

A partire da quella di Jacquelin Schneider, a capo della Hoover Wargaming and Crisi Simulation Initiative dell'Università di Stanford, che ha sperimentato simulazioni di guerra con alcuni modelli di IA affidando a loro il ruolo di decisori strategici. Per nulla rassicurante il risultato dei wargame. In crisi fittizie sul modello dell'invasione russa dell'Ucraina o della minaccia cinese contro Taiwan quasi tutti i modelli di IA hanno mostrato una preferenza per l'"escalation aggressiva, l'uso indiscriminato della potenza di fuoco e la trasformazione delle crisi in guerre vere e proprie, fino al punto di lanciare armi nucleari". "È come se l'intelligenza artificiale capisse l'escalation ma non la de-escalation. Non sappiamo davvero perché", ha ammesso Schneider.

Di fronte ai timori sollevati dagli analisti, il Pentagono rassicura sul fatto che la sua politica attuale è che all'IA non sarà mai consentito di dominare il "ciclo decisionale" affidato agli uomini che decidono se iniziare un conflitto di tipo convenzionale e, tantomeno, nucleare. C'è però chi rileva che il dipartimento della Guerra guidato da Pete Hegseth, per respingere Cina, Russia e altre minacce globali stia già creando dei sistemi difensivi basati sull'intelligenza artificiale che in molte aree stanno rapidamente diventando autonomi. Di questo passo, nel pieno di una crisi, afferma ancora una volta Schneider, il rischio è che "sarà più facile per i comandanti militari accettare un suggerimento dell'IA che contestarlo". E portare così ad un'escalation incontrollata.

Jon Wolfsthal, direttore del rischio globale presso la Federazione degli Scienziati Americani, dichiara che "per quanto ne sappiamo, al Pentagono non esiste una guida fissa su se e come l'IA debba o non debba essere integrata nel comando e controllo nucleare e nelle comunicazioni". Anche se un alto funzionario della Casa Bianca ha affermato a Politico che l'amministrazione "sostiene la necessità di mantenere il controllo umano sulle armi nucleari", gli esperti di intelligenza artificiale fanno notare che gli Stati Uniti potrebbero rivedere le loro scelte partendo da una considerazione: Mosca e Pechino utilizzano già l'intelligenza artificiale nei loro sistemi di comando e controllo e Washington "per tenere il passo" potrebbe trovarsi costretta a seguire lo stesso sentiero.

L'America ha bisogno di una "mano morta", dicono alcuni esperti riferendosi al sistema "Perimeter" sviluppato al tempo della Guerra Fredda dalla Russia sovietica che permetterebbe il lancio autonomo di missili nucleari a lungo raggio in caso di uccisione o inabilità dei vertici politici e militari del Paese. Non rasserena gli animi il Piano d'azione sull'intelligenza artificiale presentato dall'amministrazione Trump a luglio che, più in generale, chiede l'eminazione di quanta più regolamentazione possibile sull'IA. "Dobbiamo andare più veloci", ha detto un mese prima il capo dello Stato maggiore Dan "Razin" Caine ad un incontro con le grandi aziende tecnologiche del settore privato aggiungendo che la sfida più grande è aumentare "la nostra disponibilità a correre rischi, e lo faremo".

Lo scenario da incubo su IA e armi nucleari si concentra sui pochi minuti che il presidente degli Stati Uniti avrebbe per decidere se scatenare un conflitto atomico. Il commander in chief non partecipa più a simulazioni di guerra nucleare dai tempi di Reagan, afferma Adam Lowther, esperto del National Institute for Deterrence Studies favorevole all'istituzione anche negli Stati Uniti di un sistema di "mano morta". "Cosa farà il presidente se la sua prima incursione nel pensare alle armi nucleari e al loro utilizzo avviene quando ha solo cinque minuti per prendere una decisione?", si chiede Lowther, il quale sottolinea che "se non apportiamo cambiamenti radicali entro un decennio saremo la più debole delle tre potenze nucleari". "Se il sistema perderà il contatto con il presidente risponderà autonomamente.

Avere un sistema del genere può rappresentare un deterrente piuttosto efficace contro russi e cinesi", spiega Lowther. Un intervento che, confrontato con l'opinione di altri suoi colleghi, rende evidente come una risposta definitiva sull'IA sia forse impossibile da formulare.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica