La lentezza dell'Ue nel regolamentare l'IA

Oggi è entrato in vigore l'AI Act, l'inizio di un percorso faticoso e ancora largamente incompleto

La lentezza dell'Ue nel regolamentare l'IA

Ieri, 2 agosto, è entrato in vigore un nuovo blocco di norme del regolamento europeo sull’intelligenza artificiale, l’AI Act. Una data presentata come uno spartiacque che in realtà segna più l’inizio di un percorso faticoso e ancora largamente incompleto, un primo passo su degli oggetti che sarà molti difficile regolamentare sul serio (ci arrivo dopo). La Commissione europea, per arrivare in tempo, aveva diffuso solo il 10 luglio un codice di condotta per gli sviluppatori di AI, e appena nove giorni dopo le linee guida per applicarlo. Il risultato è una corsa all’ultimo minuto per regolamentare un campo che si evolve con velocità esponenziale mentre, come è noto, la politica si muove con la lentezza di chi rincorre.

In ogni caso, buona notizia, 26 aziende hanno firmato quel codice. Nomi pesanti: OpenAI, interessata soprattutto ai finanziamenti europei per data center e infrastrutture; Anthropic, guidata dai fratelli Amodei con l’ambizione di un’intelligenza artificiale “sicura per definizione”; Google, Amazon, Microsoft, IBM, e persino xAI di Elon Musk (uno che con le regole europee ha notoriamente un rapporto difficile). Dall’Europa ci sono la francese Mistral, che punta a un miliardo di investimenti, Aleph Alpha dalla Germania, e persino un progetto italiano, “modello Italia”, sviluppato da Domyn (ex iGenius) con aziende come Fastweb-Vodafone (Miia) e Almawave (Velvet).

Sulla carta, diciamo, un successo diplomatico. Nei fatti, un quadro molto più complicato. Tanto per cominciare il codice è volontario, le sanzioni per chi viola le regole arriveranno solo dal 2026 e le norme si applicano soltanto ai cosiddetti modelli generalisti (General Purpose AI), ossia quelli capaci di svolgere più funzioni (come scrivere un testo o generare un video) e addestrati con una potenza computazionale superiore a 10^23 FLOPs (per capirci: cento miliardi di miliardi di operazioni al secondo). Di fatto per ora è tutto affidato alla buona volontà delle aziende. Il punto è un altro: chi controlla? E soprattutto: chi deciderà cosa significa “sicurezza”?

Siccome gli standard di sicurezza li definiscono le stesse società che sviluppano i modelli: OpenAI, Anthropic, Google DeepMind con Gemini e le altre, pubblicano paper tecnici e linee guida che dovrebbero garantire la “responsabilità” dei loro sistemi, per cui di fatto si certificano da sole. Possono alzare la soglia degli standard ogni volta e sono anche le uniche in grado di verificarli, senza che ci sia un’autorità esterna capace di accedere al codice, ai dati e ai processi reali di addestramento. Tra l’altro spesso nemmeno loro, a porte chiuse, sanno con certezza assoluta cosa il loro sistema farà in ogni circostanza.

Mi spiego meglio: non è un limite umano, ma tecnico. I modelli di intelligenza artificiale generativa (quelli su cui si fonda gran parte dell’AI moderna, dai chatbot come ChatGPT ai generatori di immagini e video) non sono programmati con regole fisse, ma addestrati su enormi quantità di dati. Ogni volta che si sviluppa un nuovo modello, l’addestramento crea connessioni tra miliardi di parametri numerici, che producono risposte in modo probabilistico, non deterministico. In pratica: nessuno scrive a mano quello che il modello deve dire o fare, si limita a fornirgli esempi e a ottimizzare dei risultati.

Questo significa che, a differenza di un software tradizionale, non esiste una lista completa e verificabile di “cose che il modello farà”. Esistono test, simulazioni, valutazioni, prove a scatola chiusa prima di aprire la scatola e metterla a disposizioni di tutti, che saranno sempre per loro parziali, sempre valutate su un sottoinsieme delle possibilità. Soprattutto ci sono contesti in cui il comportamento dell’AI cambia in modo imprevedibile, in particolar modo se viene utilizzata in combinazione con altri sistemi, da altri utenti, in situazioni nuove (e figuriamoci quando questi modelli diventeranno sempre più “agenti”, cioè in grado di agire realmente sul web e nella realtà), e poi i modelli open source, che “ognuno” può modificare a piacere.

In teoria sarebbe possibile analizzare tutto quello che un modello può fare, in pratica è impossibile: i modelli sono troppo grandi, il loro funzionamento interno troppo complesso, le modalità d’uso troppo variabili. Questo vale per chi li sviluppa e vale ancora di più per chi dovrebbe controllarli dall’esterno, con competenze, accessi e strumenti inferiori. La conseguenza è evidente: se nemmeno chi li crea può garantirne il funzionamento in ogni contesto, come potrà farlo un’autorità di regolamentazione? E soprattutto: chi ne sarà responsabile?

Qui emerge un altro problema centrale, finora irrisolto: il disallineamento. Anche quando le aziende cercano di addestrare i loro modelli affinché rispettino standard di sicurezza, non c’è alcuna garanzia che quei modelli si comportino in modo coerente, né che restino allineati agli obiettivi originari. Un esempio recente e imbarazzante riguarda Grok, l’intelligenza artificiale sviluppata da xAI di Elon Musk: alcuni utenti avevano segnalato che, in seguito a un aggiornamento, il modello aveva cominciato a identificarsi come Hitler, rispondendo alle domande dicendo “Io sono Hitler” e producendo affermazioni assurde, offensive o palesemente fuori controllo.

Non è un caso isolato. Anche Claude 3, sviluppato da Anthropic, una delle aziende che, al contrario di Musk, più insistono sulla sicurezza come priorità assoluta, ha mostrato disallineamenti evidenti. In diversi test documentati Claude ha prodotto risposte in cui inventava fonti accademiche, link a siti inesistenti e dati statistici falsi, presentandoli però con tono formale e rassicurante. Questo tipo di “allucinazione” è particolarmente pericoloso perché dà l’impressione di affidabilità e può ingannare anche utenti esperti. Non si tratta solo di errori occasionali: è una conseguenza sistemica del modo in cui questi modelli sono addestrati a “completare” il linguaggio umano, anche quando i dati reali non ci sono.

Insomma, anche le AI più “controllate” possono deviare. Non sempre con effetti vistosi come Grok-Hitler ma spesso in modo subdolo e difficile da rilevare, e pertanto ogni tentativo di allineamento resta al momento una promessa senza garanzie.

In un simile contesto, immaginare che l’Europa possa davvero regolamentare l’intelligenza artificiale come se fosse un qualsiasi settore produttivo è un’illusione. Anche le aziende che firmano oggi, domani potrebbero aggirare i vincoli, oppure reinterpretarli. D’altra l’Europa dell’AI non può più farne a meno, nessuno può. La competizione tecnologica (e economica) globale tra Stati Uniti e Cina si gioca in larga parte sull’AI, entrambe non si fermeranno davanti a una legge per non restare indietro, perché chi resta indietro resterà fuori.

Insomma, l’AI Act tenta di difendere uno spazio di sovranità europea ma rischia di rivelarsi uno strumento inefficace se non accompagnato da un vero potere di controllo. Inoltre le autorità nazionali che dovrebbero vigilare non sono ancora operative in molti Paesi. Solo Malta, Lussemburgo e Lituania hanno ufficializzato la nomina degli enti preposti, l’Italia ha scelto Agid e Acn, e manca ancora l’ufficializzazione. Senza controllori, le regole restano carta.

E anche laddove ci fossero, resta la domanda più scomoda: come si controlla qualcosa che non si riesce nemmeno a comprendere fino in fondo? Per ora, comunque, state tranquilli: Grok 5 non potrà invadere la Polonia, sul fronte delle guerre abbiamo enormi problemi dovuti agli umani, non alle intelligenze artificiali.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica