Claude è un’arma? Un ladro? Bonnie e Clyde e adesso si è aggiunto Claude? È curioso come noi umani, portati a vedere agenti intenzionali ovunque, tendiamo a dare a degli strumenti delle intenzionalità soggettive. Mi riferisco all’ultimo (dei tanti) report di cybersicurezza a partire da un caso descritto nella stampa internazionale, un hacker che ha usato il chatbot di Anthropic, Claude appunto, per colpire diverse agenzie governative in Messico rubando 150 gigabyte di dati. La notizia, partita da Bloomberg, ha fatto il giro del mondo spesso con titoli come quello di Dagospia: “L’intelligenza artificiale è una cyber-arma”. Cosa significa? Niente.
Sarebbe come scrivere che il furgone con cui dei ladri hanno divelto un bancomat, o la chiave bulgara con cui dei ladri hanno svaligiato una casa, o per restare in tema lo skimmer con cui hanno truffato dei correntisti sono dei criminali, e creare l’idea di una criminalità organizzata di furgoni, chiavi bulgare e skimmer, tutti da arrestare. Loro, gli oggetti, non chi li usa. Pensateci: in tutti questi casi esiste uno strumento con capacità tecniche reali, più o meno sofisticate, ma nessuno attribuisce allo strumento l’azione criminale che rende possibile. Però volete mettere il fascino di sparare titoli sull’AI come fosse un soggetto?
Claude non agisce per conto suo, è un modello generativo, software che produce linguaggio su richiesta e sì, anche codice malevolo. Nei report europei sulla sicurezza informatica (Europol ed ENISA) il fatto viene descritto più semplicemente e correttamente: gruppi criminali usano modelli linguistici per generare testi di phishing più credibili o frammenti di codice, poi utilizzati in operazioni condotte da persone. Nei modelli generativi tutte le fasi operative restano esterne e umane, e definire l’AI una “cyber-arma” è uno slittamento narrativo improprio.
Certo, la generazione automatica di linguaggio e capacità operative automatizzate abbassa la soglia tecnica e amplia il numero di malfattori che ne possono far uso, ma va da sé che gli attacchi informatici continuano a essere compiuti da persone che utilizzano strumenti, non da strumenti che agiscono per conto proprio. Immaginate un titolo come: “I coltelli sono delle potenziali armi di offesa letale”. Tra l’altro, come sempre: da una parte c’è chi userà l’AI per scopi malevoli come hackerare, dall’altra si userà l’AI per difendersi. Se vogliamo considerare l’AI un’arma (ovviamente può essere e lo è già e lo sarà sempre di più) può essere il sistema a guida automatica di un missile (ve li ricordate “i missili intelligenti” no?) per colpire un edificio, e d’altra parte può essere un missile Patriot reso “intelligente” per intercettare quel missile.
Pensate infine a Alan Turing, uno dei grandi geni dell’informatica moderna, e alla macchina chiamata Bombe e progettata a Bletchley Park per decifrare i codici segreti nazisti prodotti dalla macchina Enigma. Oggi siamo più avanti ma il concetto è quello: Turing, o meglio le Bombe, contro Enigma. Meno male vinse Turing.