Leggi il settimanale

L'Ia come le atomiche: ecco la nuova corsa alle armi che preoccupa gli esperti

I sistemi militari basati sull’intelligenza artificiale preoccupano gli esperti. Che avvertono: “C’è il rischio che tale tecnologia sfugga al controllo dell’essere umano”

L'Ia come le atomiche: ecco la nuova corsa alle armi che preoccupa gli esperti

“Non so con quali armi si combatterà la Terza Guerra Mondiale, ma la quarta si farà con pietre e bastoni”. La celebre frase pronunciata da Albert Einstein, preoccupato dalla distruttività delle armi nucleari sviluppate e provate per la prima volta quando era ancora in vita, oggi potrebbe richiedere un importante aggiornamento. Gli sviluppi tecnologici in materia militare e i conflitti scoppiati negli ultimi anni, dall’Ucraina al Medio Oriente, hanno infatti dimostrato che le armi atomiche, e più in generale quelle di distruzione di massa che abbiamo imparato a conoscere nei decenni successivi al 1945, appaiono surclassate in maniera crescente da nuovi strumenti bellici basati sull'intelligenza artificiale e sempre meno controllati dall’essere umano. Così che, se il grande scienziato fosse ancora in vita, si chiederebbe non solo con quali armi potrebbero affrontarsi gli eserciti del domani ma anche chi, tra l’uomo e l’IA dilagante in ogni campo, potrebbe averne il controllo.

I riferimenti all’avvento dell’era nucleare non sono affatto casuali. Come dopo la fine della seconda guerra mondiale, Stati Uniti, Russia e Cina stanno sviluppando armi basate sull’IA a scopo di deterrenza e per mettere in piedi un sistema di “distruzione mutua assicurata” (concetto ripreso dai tempi della Guerra Fredda). Ad affermarlo è Palmer Luckey, fondatore di Anduril, una startup di tecnologie per la difesa con sede in California che ha iniziato la produzione di droni autonomi con intelligenza artificiale. Le parole di Luckey sono state raccolte dal New York Times, il quale ha di recente dedicato un lungo approfondimento alle guerre del futuro.

Secondo quanto affermato da funzionari della difesa e dell’intelligence consultati dal quotidiano americano, ogni nazione punta ad accumulare l’arsenale tecnologico più avanzato nel caso in cui dovesse trovarsi a combattere droni contro droni e algoritmi contro algoritmi in modi sconosciuti agli esseri umani. A Washington l’allarme sarebbe aumentato di livello dopo la parata militare svoltasi a Pechino lo scorso settembre durante la quale, alla presenza del presidente cinese Xi Jinping e dei leader di Russia e Corea del Nord come ospiti, la Repubblica Popolare ha fatto sfoggio di diversi modelli di velivoli senza pilota in grado di volare in autonomia al fianco dei caccia. Tale evento avrebbe convinto i funzionari del Pentagono della necessità di accelerare il programma di droni da combattimento e di esercitare pressioni sulle aziende nazionali della difesa per rispondere alla sfida.

La tecnologia alla base di armi e di sistemi di difesa autonomi è basata sulla capacità di operare in modo indipendente garantita proprio dall’intelligenza artificiale. Uno sviluppo che riduce la necessità di intervento umano in decisioni come colpire un bersaglio in movimento o difendersi da un attacco. Questa innovazione, che non sta coinvolgendo solo le principali potenze mondiali, è stata paragonata all'alba dell’era nucleare che, a partire dagli anni Quaranta, ha portato ad una situazione di precario equilibrio del terrore tra le superpotenze. Il New York Times sottolinea però che, mentre le implicazioni delle armi nucleari sono ben note, le capacità militari dell’intelligenza artificiale non sono ancora del tutto chiare. Lo dimostra, anche se in un ambito non strettamente militare, la decisione di Anthropic di non commercializzare il nuovo modello di IA Mythos dopo aver scoperto che esso è potenzialmente in grado di paralizzare sistemi informatici che governano infrastrutture strategiche quali servizi bancari, reti elettriche e gestione del trasporto aereo.

Un’altra rilevante differenza con l’era nucleare riguarda il fatto che le startup e gli investitori oggi svolgono un ruolo importante anche in ambito militare, al pari di università e governi. Non è chiaro quale potenza sia davvero al primo posto nella corsa all’IA militare. Molte informazioni sono classificate ma la posta in gioco è evidente da tempo. Nel 2017, Vladimir Putin dichiarò che chiunque avesse primeggiato nell’intelligenza artificiale “sarebbe diventato il dominatore del mondo”. Due anni fa, Xi Jinping ha affermato che tale tecnologia sarebbe stata “il principale campo di battaglia” della competizione geopolitica. Prese di posizione che a gennaio hanno convinto il segretario alla Difesa Usa Pete Hegseth ad ordinare a tutte le branche delle forze armate Usa di adottare l’intelligenza artificiale imprimendo nel campo in questione accelerazioni “a ritmi vertiginosi”.

Pochi i tentativi di regolamentare il settore. L’unico accordo importante sulle armi basate sull’IA è stato raggiunto da Stati Uniti e Cina nel 2024, anche se si tratta di un impegno non vincolante a mantenere il controllo umano sulla decisione di utilizzare armi nucleari. Non si segnalano però altre iniziative simili da parte di altri Paesi.

Intanto, l’intelligenza artificiale ha continuato a prendere piede. Gli addetti ai lavori spiegano che i quattro anni (sinora) di guerra in Ucraina “sono serviti da laboratorio per il mondo”. Negli ultimi mesi Kiev avrebbe iniziato a condividere dati provenienti dai campi di battaglia con Palantir, società di analisi dei dati co-fondata da Peter Thiel, e altre aziende affinché i sistemi di IA possano imparare a combattere meglio le guerre.

Per Luckey, della società Anduril, il potenziamento degli armamenti basati sull’intelligenza artificiale, secondo una logica vista in azione durante la Guerra Fredda, potrebbe prevenire conflitti di vasta portata. “Anche le guerre tra superpotenze si attenueranno se si riuscirà a costruire infrastrutture in grado di dissuadere efficacemente dalla guerra”, ha affermato il fondatore di Anduril. C’è però chi fa notare che se la deterrenza poggia su una buona dose di razionalità, le armi basate sull’IA sono progettate per agire più velocemente della mente umana. Con conseguenze pericolose.

Stando infatti ad esercitazioni svoltesi nel 2020, i sistemi autonomi potrebbero accelerare l’escalation in una crisi internazionale e ridurre il controllo umano. Un risultato che non contribuisce a rassicurare gli analisti e che mette in evidenza come la tecnologia di cui cominciamo a vedere i primi effetti negativi potrebbe presto prendere il sopravvento.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica