C’è qualcosa di profondamente sbagliato nel nostro tempo se l’orrore può essere prodotto in serie, senza nemmeno la presenza fisica di una vittima. Oggi, nella Giornata nazionale contro la pedofilia e la pedopornografia, il dossier 2025 “Ascoltami per aiutarmi” presentato da Telefono Azzurro a Montecitorio non aggiunge solo dati. Apre uno squarcio.
Dentro quel documento c’è una cifra che basta da sola a raccontare il salto di epoca: +26.385%. È l’aumento, in un anno, dei video di abuso sessuale su minori generati dall’intelligenza artificiale. Non è più cronaca. È un cambio di natura del male.
Il male che non ha più bisogno della realtà
Per capire cosa sta accadendo bisogna accettare un paradosso: oggi si può produrre violenza senza avere davanti una vittima reale. Ma questo non significa che la violenza non esista. Significa, semmai, che si è fatta più sofisticata, più replicabile, più difficile da intercettare. Una violenza che nasce da un algoritmo ma finisce per alimentare un mercato che, inevitabilmente, torna a colpire corpi veri, vite vere.
E soprattutto coscienze sempre più anestetizzate. Perché il dato più inquietante è un altro: la maggioranza di chi guarda questi contenuti non distingue più tra ciò che è reale e ciò che è artificiale. Quando il confine si dissolve, si dissolve anche la responsabilità.
L’infanzia come territorio esposto
Il dossier di Telefono Azzurro non racconta solo una crescita quantitativa. Racconta una fragilità diffusa. Nel mondo, centinaia di milioni di bambini e adolescenti hanno sperimentato forme di violenza sessuale. In Europa occidentale, quasi un minore su cinque è stato vittima di adescamento online prima della maggiore età. Non è una devianza marginale. È una condizione che attraversa la normalità. Famiglia, scuola, sport, comunità: i luoghi della fiducia diventano, troppo spesso, anche i luoghi del rischio. E il digitale non sostituisce questa realtà. La amplifica.
L’Italia e il silenzio che pesa
C’è un passaggio che colpisce più di altri, perché riguarda direttamente il nostro Paese. “L’Italia non è un paese più sicuro per i bambini. È solo un paese che denuncia meno”, osserva Ernesto Caffo.
È una frase che pesa. Perché ribalta la percezione. Dietro dati apparentemente più contenuti si nasconde un sommerso più ampio, alimentato da sfiducia, paura, difficoltà culturali a riconoscere e nominare il problema. Il risultato è un doppio danno: la violenza resta invisibile e la risposta arriva tardi.
Bambini troppo piccoli per chiedere aiuto
Le cifre sulle vittime aggiungono un ulteriore livello di gravità. Le fasce più colpite sono quelle tra i 7 e i 13 anni. Bambini che spesso non hanno strumenti per comprendere ciò che accade, né linguaggi per raccontarlo. È qui che si misura la distanza tra il fenomeno e la nostra capacità di reagire. Perché la protezione non può partire dalla denuncia, se la denuncia non arriva.
L’ascolto come gesto radicale
In questo scenario, il concetto più semplice diventa anche il più radicale: ascoltare. “Ascoltare un bambino che trova il coraggio di parlare non è un atto di sensibilizzazione: è il primo atto concreto di protezione”, dice ancora Ernesto Caffo. Non è retorica. È un’indicazione operativa. Perché il racconto dell’abuso è spesso frammentario, esitante, pieno di silenzi. E senza un adulto capace di riconoscerlo, quel racconto si spegne prima di diventare tutela.
La tecnologia corre, il diritto rincorre
Il problema, allora, non è solo tecnologico. È normativo, culturale, politico. L’intelligenza artificiale ha già cambiato il modo in cui si produce e si diffonde il materiale di abuso. Ma le leggi non hanno ancora fatto lo stesso salto. Oggi, in Europa, esiste persino un vuoto che limita la possibilità per le piattaforme di intercettare questi contenuti nelle comunicazioni private. È una contraddizione evidente: mentre il fenomeno si espande, gli strumenti per contrastarlo si restringono.
La risposta possibile
Le proposte ci sono. Dalla necessità di riconoscere penalmente anche i contenuti generati dall’IA, fino all’adozione del modello Barnahus, che concentra in un unico luogo tutti i servizi per la presa in carico delle vittime. È un cambio di prospettiva: non più un sistema frammentato, ma una rete integrata che mette al centro il bambino.
Una responsabilità collettiva
C’è un rischio, di fronte a tutto questo: pensare che riguardi sempre qualcun altro. Invece riguarda tutti. Le famiglie, le scuole, le istituzioni, le piattaforme digitali. Perché l’abuso non è un incidente. È un fenomeno che si muove dentro la società, sfrutta le sue fragilità, si adatta ai suoi strumenti. E oggi ha trovato nell’intelligenza artificiale un alleato potente.