
"Ormai siamo di fronte a una sorta di mercato nero dell'abuso sessista e mi colpisce che non siano state coinvolte soltanto donne mediaticamente esposte... addirittura le mogli: raccapricciante. È un problema nuovo che richiede risposte nuove: avevo intravisto il rischio, ma non mi aspettavo una deriva simile". Mara Carfagna, segretaria organizzativa di Noi moderati, parla al Corriere della Sera della vicenda del sito sessista che ha scosso il mondo femminile e annuncia che nei prossimi giorni depositerà alla Camera una proposta di legge.
"Innanzitutto rafforziamo il diritto di proprietà delle immagini e della voce per difenderle dalla manipolazione. È un passaggio necessario per regolare l'utilizzo dell'Intelligenza artificiale che si presta ad abusi. Oggi si intuiscono le insidie, ma sarà l'emergenza del futuro", spiega Carfagna. "Inoltre, diamo una definizione chiara di deep fake, fondamentale perché, al di là dello sfruttamento ai fini di abuso, può generare illeciti. Oggi le truffe agli anziani avvengono tramite il telefono, domani magari si utilizzerà l'Intelligenza artificiale", aggiunge la deputata di Noi Moderati. La legge prevede, inoltre, l'obbligo di watermark, la marcatura digitale. "Non è più possibile che a regnare sul web sia l'anonimato. Così come nelle piazze delle nostre città non andiamo con il volto coperto e non possiamo insultare le persone o apostrofarle con appellativi volgari, allo stesso modo se si vuole stare sui social bisogna farlo a viso scoperto: basta con i leoni da tastiera", prosegue Carfagna che avverte: "I fornitori di servizi online e le piattaforme social devono predisporre sistemi di identificazione certa tramite Spid o carta di identità.
Nel testo di legge, al primo articolo, si dà una definizione di "deepfake" che viene descritto come "qualsiasi contenuto di immagini, audio o video generato o manipolato attraverso programmi informatici o applicazioni digitali, anche mediante sistemi di intelligenza artificiale, che riproduca volti, voci o altre caratteristiche identificative e che possa apparire falsamente autentico o veritiero". Nel secondo articolo si precisa, poi, che
"Chiunque generi o diffonda deepfake è tenuto ad integrare nel contenuto una marcatura visibile (watermark) che indichi chiaramente la natura artificiale o manipolata del contenuto". Ma non solo. "I fornitori di sistemi di intelligenza artificiale sono obbligati a conservare per almeno dodici mesi i log relativi all’apposizione della marcatura", si legge ancora nel testo.
Il terzo articolo definisce i compiti di vigilanza da parte del Garante per la protezione dei dati personali, d’intesa con il Dipartimento per l’innovazione tecnologica e la transizione digitale e con AGCOM. Il Garante può, inoltre, "svolgere ispezioni, richiedere documentazione, disporre audit tecnici e segnalare omissioni all’autorità sanzionatoria competente". Tutto questo con i fondi già a sua disposizione, senza nessun onere aggiuntivo per lo Stato. L'articolo 4 riguarda gli obblighi per le piattaforme digitali che devono identificare gli utenti "mediante documento di identità o strumenti di identità digitale riconosciuti (SPID, CIE, eIDAS)".
Ma non solo. La legge stabilice debbano anche "ricevere segnalazioni di contenuti illeciti e predisporre procedure rapide di rimozione" eseguendo "senza indugio gli ordini di rimozione impartiti dalle autorità competenti, inclusi AGCOM e l’autorità giudiziaria". Infine, devono "cooperare obbligatoriamente con l’autorità giudiziaria fornendo tempestivamente log e dati tecnici utili all’individuazione degli autori di contenuti illeciti". In mancanza del rispetto di tali obblighi, "il giudice può disporre l’acquisizione coattiva dei dati mediante provvedimento di 'perquisizione digitale'" e la mancata cooperazione può portare a multe che vanno da 10.000 a 100.000 euro, può sospendere le loro attività in Italia e porre limitazioni contrattuali. Infine, si punisce con la reclusione da uno a 5 anni i rappresentanti legali, amministratori o dirigenti che abbiano deliberatamente negato la consegna dei dati richiesti.
Il reato di "deepfake" è "perseguibile d’ufficio se commesso a danno di minori o con finalità discriminatorie", mentre non costitiuisce reato se ha finalità satiriche purché la
tali contenuti "non ledano in modo concreto la dignità, la reputazione o la sicurezza delle persone". Infine, verranno applicate "le misure cautelari e interdittive previste in materia di violazioni del diritto d’autore.”