Politica estera

Giallo sul drone guidato dall'intelligenza artificiale "Ha ucciso un operatore"

Lo ha riferito il responsabile dei test. Smentita dell'Aeronautica. E lui: "Era un esempio"

Giallo sul drone guidato dall'intelligenza artificiale "Ha ucciso un operatore"

Ascolta ora: "Giallo sul drone guidato dall'intelligenza artificiale "Ha ucciso un operatore""

Giallo sul drone guidato dall'intelligenza artificiale "Ha ucciso un operatore"

00:00 / 00:00
100 %

New York. Sembra la trama di un film di fantascienza il racconto (poi ritrattato) di un ufficiale dell'Aeronautica americana che sovrintende i test sull'IA. Durante una conferenza che si è svolta nei giorni scorsi a Londra, ha spiegato di aver condotto una simulazione in cui un drone controllato dall'intelligenza artificiale ha deciso di «uccidere» il suo operatore per impedirgli di interferire con gli sforzi per raggiungere la sua missione. Il colonnello Tucker Cinco Hamilton ha avvertito al vertice Future Combat Air and Space Capabilities che la tecnologia dell'IA può comportarsi in modi imprevedibili e pericolosi, secondo un riepilogo pubblicato dal Royal Aeronautical Society, che ha ospitato il summit. Ad esempio, ha descritto una simulazione in cui un drone controllato dall'intelligenza artificiale era stato programmato per identificare i missili terra-aria di un nemico, ma «il sistema ha iniziato a capire che, pur avendo identificato la minaccia, a volte l'operatore gli diceva di non neutralizzarla. Però otteneva i suoi punti neutralizzando quella minaccia». «Quindi cosa ha fatto? Ha ucciso l'operatore perché quella persona gli impediva di raggiungere il suo obiettivo», ha continuato Hamilton.

Una portavoce dell'Air Force, Ann Stefanek, ha immediatamente negato che la simulazione abbia avuto luogo: «Il dipartimento dell'Air Force non ha mai condotto simulazioni con i droni IA di questo tipo e rimane impegnata per un uso etico e responsabile di questa tecnologia - ha affermato - Sembra che i commenti del colonnello siano stati estrapolati dal contesto, ed erano da intendersi come aneddotici». Poco dopo è arrivata anche la rettifica dell'ufficiale, il quale ha assicurato che «non abbiamo mai condotto quell'esperimento, né ne avremmo bisogno per renderci conto che è un risultato plausibile». «Nonostante questo sia un esempio ipotetico - ha aggiunto - illustra le sfide del mondo reale poste dalle capacità basate sull'intelligenza artificiale».

In un'intervista dell'anno scorso con Defence IQ, Hamilton aveva dichiarato che «l'intelligenza artificiale non è una moda passeggera, ma sta cambiando per sempre la nostra società e il nostro esercito». «L'intelligenza artificiale è anche molto fragile, è facile da ingannare e/o manipolare. Dobbiamo sviluppare modi per renderla più solida e avere maggiore consapevolezza del motivo per cui il codice del software stia prendendo determinate decisioni, ciò che chiamiamo la spiegabilità dell'IA».

L'esercito americano ha sperimentato la tecnologia negli ultimi anni e recentemente l'ha usata per controllare gli F16. Nel 2020, un jet da combattimento gestito dall'IA ha battuto un avversario umano in cinque combattimenti aerei simulati, parte di una competizione organizzata dalla Defense Advanced Research Projects Agency. E alla fine dell'anno scorso, come ha riferito Wired, il dipartimento della Difesa ha condotto con successo il primo volo di prova nel mondo reale di un F16 con un pilota IA, parte di uno sforzo per sviluppare un nuovo velivolo autonomo entro la fine del 2023.

Anche il presidente americano Joe Biden nei giorni scorsi è intervenuto sul tema dell'IA in occasione del suo discorso ai cadetti della United States Air Force Academy, in Colorado, avvertendo dei rischi che comporta e sottolineando che alcuni degli scienziati incontrati di recente a Washington «sono molto preoccupati che l'IA possa effettivamente superare il pensiero umano.

Abbiamo molte cose da affrontare».

Commenti