È partita la guerra alle false notizie

Cambia il codice: sarà un'aggravante manipolare mercato e news con l'IA

È partita la guerra alle false notizie

Nell'era del verosimile che stiamo vivendo, dove non è importante che una cosa sia vera o falsa purché appunto assomigli a una verità, l'intelligenza artificiale rappresenta la classica arma a doppio taglio: può aiutarci a distinguere una notizia vera da una delle tantissime fake news o può ingarbugliarci ancor di più la mente, facendo dire qualcosa di sconvolgente a un volto televisivo noto oppure, peggio ancora, a un politico. Ecco perché Palazzo Chigi sta cercando di porre alcuni paletti, soprattutto nel campo dell'informazione, dei rischi di manipolazione del voto e dei cosiddetti deepfake, che dopo l'ok della legge dovranno recare obbligatoriamente «un elemento o segno identificativo, anche in filigrana purché facilmente visibile, con l'acronimo Ai» e dovrà rispettare le regole del copyright, compreso il credito alle fonti di partenza (vigilerà il Garante delle comunicazioni).

Abbiamo dato un'occhiata alla bozza di 25 capitoli del disegno di legge sull'intelligenza artificiale aggiornata all'8 aprile alle 14.30, che prevede un primo stanziamento di circa 150 milioni di euro legati al Pnrr, di cui 89,1 milioni per fondi dedicati a tecnologie emergenti, come intelligenza artificiale, quantum computing e cybersecurity, altri 44,7 milioni di euro nel settore delle telecomunicazioni (5G, mobile edge computing e web3) . Ai fondi di venture capital dedicati potrebbe partecipare anche Palazzo Chigi attraverso il Fondo nazionale innovazione sui venture capital aperto in Cassa depositi e prestiti, la cassaforte dei risparmi postali. È un documento interessante, soprattutto sull'aspetto della manipolazione e della propaganda, perché prevede una sorta di bollino anti deepfake e perché, per la prima volta, si teorizza che l'uso dell'intelligenza artificiale per compiere reati possa diventare un'aggravante. L'obiettivo dichiarato della legge è ambizioso: promuovere un «utilizzo concreto, trasparente e responsabile dell'intelligenza artificiale» in una dimensione antropocentrica, stabilendo principi in materia di «ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di intelligenza artificiale» e vigilare sui «rischi economici e sociali della Ai» e il loro impatto sui diritti fondamentali. Al di là del tandem di soggetti che dovranno vigilare ( l'ente per la digitalizzazione Agid, cui spetta il monitoraggio, e l'Agenzia per la cybersicurezza nazionale Acn, che invece farà le ispezioni e irrogherà le sanzioni in caso di violazioni, entrambe designate come autorità nazional i) , coi direttori generali Mario Nobile e Bruno Frattasi coinvolti nel comitato di coordinamento assieme al capo del dipartimento per la Trasformazione digitale della presidenza del Consiglio , il punto chiave è che «i sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell'uomo, della prevenzione del danno, della conoscibilità, della spiegabilità». Insomma, l'AI non deve interferire né pregiudicare la vita democratica e le istituzioni.

Anche il mercato dell'intelligenza artificiale, la disponibilità dei dati e il loro accesso a scopi commerciali o scientifici deve essere il più possibile «innovativo, equo, aperto e concorrenziale». Le aziende e i professionisti che ne fanno uso dovranno dichiararlo ai clienti, l'accesso alle tecnologie di intelligenza artificiale per i minori di 14 anni (c'è chi spinge per alzare l'età a 18) sarà limitato e servirà «il consenso di chi esercita la responsabilità genitoriale», successivamente si potrà avere accesso purché lo strumento abbia regole trasparenti e comprensibili .

La questione centrale sono gli algoritmi e l'applicazione in campi disparati, dalla sanità alla giustizia, dal fisco al lavoro. Mentre nel caso della giustizia sarà possibile fare ricorso agli algoritmi per valutare gli orientamenti giurisprudenziali, non sarà lecito utilizzarli in caso di licenziamenti, mansioni e percorsi di carriera . Anzi, la perdita di posti di lavoro sarà monitorata e contrastata da una Fondazione con dentro Palazzo Chigi, Mef e ministero dell'Università e della ricerca . Né sarà l'AI a «selezionare e condizionare l'accesso alle prestazioni sanitarie con criteri discriminatori», e se qualche ente pubblico farà ricorso a un algoritmo sarà esclusivamente «per finalità strumentali e di supporto», non certo per liste d'attesa o altro. E i pazienti dovranno essere informati.

Il capitolo fiscale conferma quanto anticipato mesi fa dal Giornale: l'intelligenza artificiale dirà la sua su accertamenti, riscossione e controlli fiscali, servirà per analizzare il rischio di evasione ma anche per semplificare gli adempimenti e migliorare i diritti dei contribuenti, sempre con la supervisione di personale umano. Non basteranno infatti «le risultanze delle elaborazioni algoritmiche» per procedere con le sanzioni , ma serviranno «altri elementi indiziari».

Tutta l'ultima parte invece è destinata alle modifiche del codice penale, civile e alle norme a tutela degli utenti e del diritto d'autore. L'esecutivo ha in mente un giro di vite contro gli abusi e le manipolazioni delle informazioni attraverso l'intelligenza artificiale. Sarà un'aggravante in caso di reato di sostituzione di persona ( «La pena è della reclusione da uno a tre anni se il fatto è commesso mediante l'impiego di sistemi di intelligenza artificiale»), per il reato di rialzo e ribasso fraudolento di prezzi sul mercato o in Borsa, per la diffusione di video sessualmente espliciti o in caso di frode informatica , aggiotaggio o manipolazione del mercato. Prevista anche l'aggravante in caso di abusi sulla Ai per i reati di riciclaggio.

Il governo infine vuole riformulare così l'articolo 612-quater del codice penale, che già punisce chi manipola artificialmente le foto altri: «Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati o alterati, anche parzialmente, in qualsiasi forma e modo mediante l'impiego di sistemi di intelligenza artificiale» oppure « in grado di presentare come reali dati, fatti e informazioni che non lo sono », inducendo in inganno chi li guarda, «è punito con la reclusione da uno a cinque anni».

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica