Bastano pochi secondi per distruggere la dignità di una donna online. Non perché abbia scelto di condividere qualcosa di intimo, né perché si sia fidata della persona sbagliata.
Ma perché qualcuno ha digitato un comando in uno strumento di intelligenza artificiale. Una foto qualunque, vestita, presa dai social: in pochi istanti un algoritmo la spoglia, la sessualizza e la diffonde.
Non c’è consenso. Nessun avvertimento. Nessuna possibilità di fermare la circolazione dell’immagine. In soli nove giorni un famoso chatbot, per esempio, ha creato 4,4 milioni di immagini, quasi la metà sessualizzate e riferite a donne. Numeri che mostrano quanto questa violazione sia già sistemica.
Una donna ha raccontato di essersi sentita «disumanizzata e ridotta a uno stereotipo sessuale» dopo che le erano stati rimossi digitalmente i vestiti: «Sembrava me. Mi sono sentita violata come se avessero pubblicato una mia foto nuda». Anche se l’immagine è falsa, la ferita è reale.
Chiunque può essere colpita.
Professioniste, manager, attiviste, studentesse, sportive. Donne visibili, che esprimono opinioni.
La tecnologia non ha creato l’odio, ha imparato ad automatizzarlo.
Non è un effetto collaterale dell’innovazione. È sfruttamento sessuale, ricatto, violenza. Alcuni parlano di “stupro digitale”, un’espressione dura, ma che descrive una verità scomoda. La dignità può essere violata senza contatto fisico.
Il danno non si ferma all’immagine. Le donne si zittiscono, esitano, si ritirano. Le ragazze imparano che esporsi può significare essere punite. Quando la paura spinge fuori dallo spazio pubblico, la società si impoverisce.
Ogni anno migliaia di donne abbandonano piattaforme o rinunciano a ruoli di responsabilità a causa delle molestie. Con loro perdiamo pluralità e talento.
La colpa non è dell’IA in sé. Gli algoritmi non agiscono nel vuoto. Le piattaforme traggono profitto da questi sistemi. Un chatbot leader a livello mondiale avrebbe incassato quasi 90 milioni di dollari nel terzo trimestre 2025 e potrebbe arrivare a quasi 300 milioni quest’anno. Le violazioni prosperano dove i controlli sono deboli e le responsabilità sfumate.
L’Europa ha regole, ma senza applicazione restano dichiarazioni.
Perfino le policy interne vietano di mostrare persone “in modo pornografico” senza consenso, eppure le immagini circolano per mesi. Il problema non è l’assenza di norme, ma la loro mancata attuazione.
L’Unione europea dispone del Digital Services Act, dell’Artificial Intelligence Act e della direttiva contro la violenza sulle donne.
Creare o diffondere immagini intime senza consenso, anche generate dall’IA, è già illegale. La questione è far rispettare la legge, con interventi tempestivi e sanzioni reali.
Troppo spesso si agisce solo dopo lo scandalo. Ma rimuovere un contenuto non cancella l’umiliazione né restituisce sicurezza. La prevenzione deve precedere il danno.
L’8 marzo ci ricorda che i diritti delle donne non si fermano al confine digitale. Se il mancato consenso diventa aleatorio online, lo diventa anche la dignità.
Non possiamo accettarlo.
Abbiamo una scelta: pretendere che i deepfake illegali siano rimossi immediatamente e che le piattaforme rispondano delle loro responsabilità, oppure tollerare un futuro in cui il corpo delle donne è un danno collaterale. Restare neutrali significa lasciare spazio agli abusanti.
In questa Giornata internazionale della donna, l’Europa scelga il coraggio. Agire ora non è un’opzione, è un dovere.
* Coordinatrice del Gruppo Ppe Commissione per i Diritti della Donna e l’Uguaglianza di Genere ** Europarlamentare Ppe, Presidente Consulta Nazionale Forza Italia.