Leggi il settimanale

Anthropic fa causa al Pentagono. La guerra sull’intelligenza artificiale finisce in tribunale

La startup fa causa dopo essere stata dichiarata rischio per la sicurezza nazionale: scontro senza precedenti sui limiti etici dell’IA militare e sul controllo delle tecnologie strategiche negli Stati Uniti

Anthropic fa causa al Pentagono. La guerra sull’intelligenza artificiale finisce in tribunale
00:00 00:00

Lo scontro tra Silicon Valley e Pentagono sull’uso militare dell’intelligenza artificiale entra in una fase giudiziaria destinata ad avere conseguenze oltre gli Stati Uniti. La startup americana Anthropic ha citato in giudizio il Dipartimento della Difesa dopo essere stata classificata come “supply chain risk”, una definizione che nella pratica esclude l’azienda da contratti e programmi legati alla sicurezza nazionale.

La decisione è arrivata dopo settimane di tensioni sui limiti imposti dalla società all’utilizzo dei propri sistemi di IA, limiti che il Pentagono considera incompatibili con le esigenze operative delle forze armate. Al centro della disputa c’è il controllo sull’uso di tecnologie sempre più strategiche, in un momento in cui Washington accelera sull’integrazione dell’intelligenza artificiale nei programmi militari e di difesa. La causa, presentata davanti a un tribunale federale, potrebbe diventare un precedente per definire fino a che punto il governo possa condizionare le aziende che sviluppano sistemi avanzati di IA.

La designazione di “supply chain risk” e lo scontro sulle limitazioni all’IA

Il Dipartimento della Difesa ha motivato la classificazione sostenendo che alcune restrizioni integrate nei modelli di Anthropic impedirebbero un utilizzo pieno della tecnologia in contesti militari. In particolare, l’azienda ha mantenuto limiti sull’impiego dei propri sistemi per sorveglianza di massa, targeting automatico e applicazioni che possano essere collegate a sistemi d’arma autonomi.

Secondo il Pentagono, queste condizioni renderebbero la piattaforma non affidabile per programmi che richiedono flessibilità operativa e accesso completo alle funzionalità. La designazione di rischio per la catena di fornitura è uno strumento usato raramente contro società americane e comporta conseguenze immediate: appaltatori e agenzie federali devono sospendere o evitare l’uso dei prodotti dell’azienda nei progetti sensibili.

La misura riflette la crescente pressione del governo statunitense per avere accesso a tecnologie di IA senza limitazioni, soprattutto nel contesto della competizione strategica con Cina e Russia.

La causa di Anthropic: “decisione arbitraria e danno commerciale”

Anthropic sostiene che il provvedimento sia illegittimo e rappresenti una ritorsione per la scelta di mantenere linee guida etiche sull’uso dell’intelligenza artificiale. Nei documenti depositati in tribunale, la società afferma che il Dipartimento della Difesa non avrebbe fornito prove concrete per giustificare la classificazione di rischio e che la decisione avrebbe effetti diretti sulla sua attività, compromettendo contratti, investimenti e rapporti con partner pubblici e privati.

L’azienda sostiene inoltre che il governo non possa costringere un fornitore privato a modificare le proprie politiche di sicurezza o a rimuovere limitazioni tecniche per poter partecipare a programmi federali. Secondo la difesa legale della startup, la misura violerebbe principi di libertà economica e di giusto processo, oltre a creare un precedente che potrebbe colpire altre società tecnologiche che adottano politiche restrittive sull’uso dei propri modelli.

Anthropic ha comunque dichiarato di restare disponibile al dialogo con le autorità, ribadendo però che non intende eliminare le salvaguardie considerate essenziali per prevenire usi pericolosi o non controllati dell’IA.

Un precedente che può influenzare le regole globali sull’IA militare

Il contenzioso arriva in una fase in cui i governi occidentali stanno rafforzando la cooperazione con l’industria tecnologica per accelerare lo sviluppo di sistemi di difesa basati sull’intelligenza artificiale. Negli Stati Uniti, il Pentagono ha avviato diversi programmi per integrare modelli generativi, analisi automatizzata dei dati e strumenti di supporto alle decisioni nelle operazioni militari.

Allo stesso tempo, cresce il dibattito su chi debba stabilire i limiti all’uso di queste tecnologie: le autorità pubbliche, per ragioni di sicurezza nazionale, oppure le aziende che le sviluppano, per motivi etici e reputazionali. Il caso Anthropic mette in evidenza questo conflitto, già emerso in passato con altre società della Silicon Valley ma mai sfociato in uno scontro legale di questa portata.

L’esito della causa potrebbe influenzare non solo i rapporti tra governo statunitense e imprese tecnologiche, ma anche le politiche di difesa dei paesi alleati, che stanno definendo regole comuni sull’impiego

dell’intelligenza artificiale in ambito militare. Per questo il procedimento viene seguito con attenzione anche in Europa e nei partner della NATO, dove il tema dell’IA dual-use è diventato centrale nelle strategie di sicurezza.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica