Non bisogna avere paura dell’intelligenza artificiale: è parte di una grande rivoluzione in atto, ma non mina i posti di lavoro delle persone. Oggi la sfida a livello globale non è IA contro essere umano, ma è tra gli esseri umani che sanno progettarla, realizzarla e governarla contro gli esseri umani che invece non ne sono capaci». A spiegarlo è Mario Nobile, direttore generale di AgId, l’agenzia per l’Italia Digitale. È sua, e del suo team di lavoro, la responsabilità di coordinare e promuovere la strategia nazionale per l’intelligenza artificiale.
Il 10 ottobre è entrata in vigore la nuova legge italiana sull’IA che ne disciplina l’uso e valorizza le competenze «made in Italy». La norma rispetta i principi costituzionali e i diritti fondamentali e si muove nel solco dell’AI Act europeo: il nostro Paese è il primo in Europa a dotarsi di una legge nazionale.
Direttore, cosa distingue la nuova legge italiana dall’AI Act europeo?
«L’AI Act sostanzialmente è una legge che proibisce certe pratiche perché contrarie ai valori europei. Penso al social scoring, ad esempio, che è la valutazione del comportamento sociale di un individuo stabilita dall’intelligenza artificiale tramite algoritmi, ma anche alle capacità predittive in termini di propensione a delinquere di una persona. Su altri aspetti, invece, l’AI Act invita i Paesi ad applicare il criterio del risk assessment, cioè del rischio. A noi ingegneri insegnano che il rischio è una combinazione di più fattori: vulnerabilità per valore esposto per pericolosità».
Facciamo un esempio concreto accessibile a noi tutti.
«L’esempio è quello sismico.
La “pericolosità” sismica dipende da un fattore naturale: la faglia di Sant’Andrea in California o il deserto del Sahara hanno sostanziali differenze in termini naturali. La “vulnerabilità” è la capacità di resistenza dell’edificio, in argilla o in cemento armato. Il “valore esposto” è se quell’edificio ospita un ospedale o è vuoto.
Moltiplicando questi tre fattori, ottengo un rischio elevato, medio, o basso. Il messaggio dell’AI Act è che è necessaria una valutazione».
La legge italiana accelera l’adozione dell’Intelligenza artificiale in tutti i campi e propone una visione antropocentrica del sistema: l’uomo al centro.
Cosa significa?
«Che l’uomo non è soppiantato dalla macchina, ma la governa. Mettiamo l’uomo al centro perché l’IA, fino ad oggi, non è e non può essere del tutto autonoma. Faccio un esempio basato su un paper recentissimo, il risultato di un think tank tedesco cui abbiamo partecipato con colleghi dell’Ucraina e degli Emirati Arabi: abbiamo ripreso la definizione di ’guida autonoma’ della SAE, la Society of Automotive Engineers americana. Immagini vari livelli di autonomia, dallo 0 della vecchia utilitaria con volante e cambio a mano fino al livello 5, completamente autonomo. Nonostante ci siano sperimentazioni, il livello 5 in questo momento non esiste, né per la guida delle auto né in altre applicazioni di IA. Quindi la legge italiana prevede l’essere umano presente dal livello 0 al livello 4. Il livello 5 è un tema di cui discutere oggi perché tira in ballo grandi temi etici e filosofici, l’utilizzo della tecnologia per superare certi limiti umani: ma non c’è».
La legge sottolinea che l’utilizzo dell’intelligenza artificiale non debba mai essere discriminante e tenga conto della parità fra i sessi.
«Sono ottimista e vedo margini di miglioramento: questi sistemi faranno diminuire la discriminazione che oggi riscontriamo nel mondo reale. Un esempio semplice di discriminazione è legato alla conoscenza della lingua inglese nel nostro Paese. Pensi la rivoluzione nel momento in cui il sito di un Comune o di un’impresa italiana, con un operatore che parla italiano, grazie all’IA può dialogare in tutte le lingue del mondo. E ancora, i disabili: l’IA aiuterà l’inclusione ovviamente di chi ha disabilità permanenti, ma anche dei disabili temporanei e situazionali. Se l’oculista mi mette le gocce nell’occhio, ho bisogno di uno strumento che in quel momento mi aiuti a leggere un sito web o una app».
E la non discriminazione uomo-donna sul lavoro? L’IA annullerà l’attuale gap?
«È un tema che ci sta particolarmente a cuore perché AgID è stata la prima pubblica amministrazione ad essere certificata per parità di genere, quindi culturalmente enfatizziamo le buone pratiche per ridurlo. Ma questo riguarda l’addestramento che c’è stato finora per i Large Language Model. Quelli bravi dicono garbage in, garbage out. Se metti spazzatura dentro un modello, otterrai spazzatura. Le lancio una provocazione: quanto stiamo affidando a questa intelligenza artificiale delle negatività o delle storture che abbiamo come esseri umani? Se dessimo per scontati determinati messaggi culturali, giornalistici, sociali non andrebbe bene».
Ha toccato il grande punto dell’addestramento dei modelli di IA. Uno dei compiti dell’Agenzia è formare il personale, dare indicazioni sia nel pubblico sia nel privato. Nelle grandi aziende tutto è interconnesso: basta che un impiegato che ha accesso al sistema non sia preparato e l’intero processo va il tilt.
«Noi non vogliamo 59 milioni di italiani che siano prompt engineers, cioè ingegneri che istruiscono i chatbot, ad esempio. Di quelli ne bastano pochi e grazie a Dio li abbiamo. Il famoso Caio, il Chief Artificial Intelligence Officer delle aziende, non deve essere un tecnologo, ma un esperto di processi, perché i nuovi strumenti migliorano proprio quelli. Dopodiché a catena, come dice giustamente lei, vanno formate e addestrate le persone.
Ma questo è un tema umano, perché purtroppo non in tutte le attività umane la formazione ha un’efficacia del 100%».
Tra le finalità della legge ci sono lo sviluppo della ricerca medica, della prevenzione e la produzione di nuovi farmaci.
La salute è ciò che vale di più, ma porta con sé il tema sensibile dei dati. Come ne uscite?
«In Italia abbiamo quattro regioni capofila che hanno ottenuto finanziamenti per il progetto REG4AI, Regioni per l’intelligenza artificiale.
Sono Liguria per la sanità, Lombardia per ambiente e trasporti, Puglia per la pubblica amministrazione e Toscana per il governo delle emergenze.
Con i colleghi della Liguria stiamo lavorando su come ridurre le liste d’attesa. Segua questo esempio: per domani ci sono 10 persone prenotate per una TAC. La cosa più grave che può accadere per l’efficienza del sistema è che qualcuno di loro non si presenti.
Non lo farà apposta, avrà avuto un’impossibilità. Ecco, se riuscissimo a utilizzare non soltanto i dati sanitari, potremmo fare overbooking: cioè prenotare più posti di quelli che ci sono per poterli eventualmente scambiare. Potremmo sapere che Carla prende l’autobus per recarsi in ospedale perché abita lontano e che Mario ci va invece a piedi.
L’IA ci permetterebbe di avvertire Carla: domani è prevista pioggia e c’è lo sciopero dei mezzi, molto probabilmente non riuscirai a venire in ospedale. Hai due alternative: o vieni con un altro mezzo, oppure fai la TAC dopodomani. Ciò consentirebbe anche di dire a Mario: Preparati perché domani, probabilmente tra le 15 e le 16, farai la TAC.
Questo significa usare dati non solo sanitari per migliorare un bene collettivo, che è l’uso massimo della macchina per la TAC».
Un suggerimento per i giovani: come approcciare con intelligenza l’intelligenza artificiale?
«Pensiero critico, pensiero critico, pensiero critico: lo ripeto tre volte.