Guerra in Israele

Sistema "Lavender": l'intelligenza artificiale che ha guidato i raid israeliani a Gaza

Secondo l'inchiesta di una rivista di Tel Aviv, all'inizio della guerra le Idf si sono affidate completamente all'Ia per eliminare decine di migliaia di bersagli in bombardamenti che hanno causato molte vittime civili

Sistema "Lavender": l'intelligenza artificiale che ha guidato i raid israeliani a Gaza

Ascolta ora: "Sistema "Lavender": l'intelligenza artificiale che ha guidato i raid israeliani a Gaza"

Sistema "Lavender": l'intelligenza artificiale che ha guidato i raid israeliani a Gaza

00:00 / 00:00
100 %

Per eliminare migliaia di combattenti di Hamas, l’esercito israeliano ha fatto affidamento su un programma di intelligenza artificiale, Lavender. Secondo la rivista +972 Magazine, che ha intervistato sei ufficiali coinvolti direttamente nell’utilizzo di questo software nelle fasi iniziali del conflitto, esso ha svolto un ruolo centrale nella devastante campagna di bombardamenti condotta dall’aviazione di Tel Aviv nelle prime settimane di guerra, generando una lista di oltre 37mila bersagli indicati come potenziali membri di Hamas.

Pare che Lavender fosse diventato a tal punto centrale nello svolgimento delle operazioni che i risultati da esso forniti sono stati considerati “come se si fosse trattato di decisioni umane”. Alla base del sistema vi è una classifica entro cui vengono inseriti gli abitanti della Striscia di Gaza. In base a vari criteri, come la parentela con un membro di un’organizzazione terroristica, la sua residenza e i contatti con militanti tramite il cellulare, a ciascuno viene assegnato un punteggio da uno a 100. In condizioni normali, Lavender funge da semplice supporto all’attività di intelligence, gli operatori conducono indagini approfondite sulle informazioni fornite dall’Ia, il ranking dei sospettati deve essere molto alto e viene fatto un calcolo delle potenziali vittime collaterali prima che arrivi l’autorizzazione a procedere con l’eliminazione. Dopo il 7 ottobre, però, è cambiato tutto.

Gli intervistati hanno riferito a +972 Magazine che gli alti ufficiali dell’esercito hanno approvato l’adozione della lista creata da Lavender e hanno ordinato di procedere con i bombardamenti di ogni obiettivo, senza considerare il suo rango all’interno di Hamas o della Jihad islamica palestinese e il numero di potenziali civili coinvolti nei bombardamenti, oltre a evitare completamente il processo di verifica delle informazioni. Tutto questo è stato ordinato con la consapevolezza che il sistema è accurato al 90%. Una delle fonti ha dichiarato di essersi sentito come “un timbro di gomma” per le decisioni di Lavender, spiegando di non aver dedicato più di 20 secondi alla conferma di ciascun obiettivo e spesso limitandosi solamente ad accertarsi che fosse un uomo. In più, molti terroristi di basso rango sono stati colpiti mentre si trovavano nelle loro abitazioni private, facili da rintracciare. Questo ha causato la morte di intere famiglie, dovuta anche all’utilizzo delle cosiddette dumb bombs per non “sprecare” armi più sofisticare contro bersagli di scarsa importanza.

Tutti gli intervistati hanno parlato dell’atmosfera che si percepiva nell’esercito all’indomani del 7 ottobre, spiegando che in questa decisione era presente sicuramente un elemento di vendetta e che i quadri dirigenti premevano per ricevere ogni giorno lunghe liste di terroristi uccisi. Nel periodo precedente all’inizio delle operazioni di terra a Gaza, quando il numero di bersagli diminuiva, si abbassava anche il punteggio necessario per considerare un palestinese come affiliato di Hamas.

Le Idf hanno risposto all’inchiesta pubblica da +972 Magazine negando di aver ordinato di fare totale affidamento sull’intelligenza artificiale e relegando Lavender al ruolo di semplice “strumento” e database da affiancare al lavoro di agenti umani incaricati di esaminare accuratamente le informazioni raccolte su potenziali terroristi. “Il processo di identificazione degli obiettivi militari nelle Idf consiste in vari tipi di strumenti e metodi, tra cui gli strumenti di gestione delle informazioni, che vengono utilizzati per aiutare gli analisti dell'intelligence a raccogliere e analizzare in modo ottimale l'intelligence, ottenuta da una varietà di fonti”, si legge nel comunicato rilascio dall’esercito israeliano. “Le Idf non effettuano attacchi quando i danni collaterali sono eccessivi rispetto al vantaggio militare.

In conformità con le norme del diritto internazionale, la valutazione della proporzionalità di un attacco è condotta dai comandanti sulla base di tutte le informazioni a loro disposizione prima dell'attacco, e naturalmente non sulla base dei risultati a posteriori”.

Commenti