
L'intelligenza artificiale è sempre più presente nella quotidianità. La usiamo per tutto: creare una scheda della palestra, fare il riassunto di un libro, dar vita ad immagini e video. Fino qui nulla di male. Ma è proprio su quest'ultimo punto che si sta portando l'attenzione ai massimi livelli, visti gli ultimi casi di cronaca e il continuo aumento di segnalazioni di video deepfake che girano in rete. Una situazione pericolosa che deve far riflettere.
Cos'è il finto porno sviluppato con l'intelligenza artificiale
Il finto porno, così comunemente detto, è un contenuto pornografico che utilizza le funzionalità dell'intelligenza artificiale. Significa che il volto di chiunque, che è presente sul web tramite i social, può essere applicato su un finto corpo, creato con l'intelligenza artificiale, o appartenente a un'altra persona, e inserito in un contesto pornografico. Questi contenuti possono essere creati con un semplicissimo smartphone. Bastano un video o una foto presi dai social e quindi di dominio pubblico, una connessione e il gioco è fatto. Potenzialmente siamo tutti vulnerabili, vista la diffusione delle nostre immagini in rete. La rete è veloce ed è facile creare contenuti contraffatti.
Chiunque può essere colpito
Lo strumento dell'Ia, se utilizzato da chi ha intenzioni malevole, può colpire chiunque. Proprio in questi ultimi giorni è stato scoperto il sito di Phica.net, gestito da un 45enne fiorentino, dove veniva utilizzava l'intelligenza artificiale per modificare foto e video di donne per farle apparire nude. Un gruppo di soli uomini che pubblicava foto senza consenso di amici, partner e mogli dove tutti commentavano. Poi l'arrivo all'uso dell'Ia. A essere prese di mira celebrità, influencer e leader politiche i cui volti sono stati utilizzati per creare video e immagini false con sfondo pornografico. Un evento che ha fatto risuonare il campanello d'allarme riguardo la forza di questo mezzo.
I rischi della pedopornografia
Ad essere colpiti non sono solo gli adulti. Molte volte le vittime sono anche giovani ragazze i cui volti vengono associati a corpi non loro e inseriti in video a stampo sessuale per poi essere condivisi in rete sui vari gruppi o piattaforme. Una situazione che sfocia nella pedopornografia, regolata dalla legge, e che è punita con la reclusione fino a tre anni. Proprio i minori, che utilizzano più di tutti i social, pubblicano foto e video di se stessi o in compagnia sono le persone più vulnerabili. Un altro rischio è legato alla diffusione di bambini o ragazzi molto giovani proprio da parte dei loro genitori: queste foto, è importante esserne consapevoli, possono essere utilizzate per creare pedopornografia.
Il vuoto legislativo
Ma anche quando i responsabili di queste azioni vengono presi il problema persiste e questa volta si chiama vuoto legislativo. Chi usa l'Ia per creazioni deepfake rischia accuse di frode informatica - con un massimo di un anno di reclusione - o di sostituzione di persona - fino a tre anni di reclusione - ma niente di più.
Intanto le immagini di uomini, donne e minori vengono modificate e mandate in rete alla mercé di chiunque, a volte distruggendo la loro immagine e la loro vita. Silvia Semenzin, la «madrina» della legge sul revenge porn ha spiegato in un'intervista al Corriere che già nel 2019 provò a inserire una specifica ad hoc sui porno con l'ai, senza successo.