Pedopornografia, Apple vuole scansionare automaticamente le immagini scattate da iPhone per identificare gli abusi

A rivelarlo è stata la responsabile della privacy del colosso americano durante un meeting a Las Vegas. Rimangono aperti gli interrogativi in tema di riservatezza

Una foto (scansionata direttamente dal dispositivo) per individuare un eventuale abuso. Apple ha deciso di monitorare in questo modo, e cioè in automatico, le foto caricate direttamente dagli iPhone per individuare possibili abusi sessuali sui minori commessi da adulti. E, secondo quanto riportato da La Stampa, è stata proprio la responsabile della privacy della società americana, Jane Horvath, nel corso di un meeting a Las Vegas, a illustrare l'utilizzo dei nuovi programmi e algoritmi per difendere i bambini in caso di violenze.

Come funziona il sistema

Secondo quanto riportato dal quotidiano, in caso di identificazione di materiale illecito pedopornografico o di sfruttamento dei minori sui dispositivi, il colosso americano dovrebbe procedere a disabilitare gli account responsabili della diffusione di questo tipo di materiale illegale. Tuttavia, Horvath, nel corso del summit, non ha chiarito con precisione come opera e a che livello lavora la tecnologia impiegata, anche per non diffondere informazioni a vantaggio di chi commette crimini di questo genere.

Gli interrogativi

Restano, quindi, gli interrogativi sulle modalità di controllo, anche perché non sono confermate le ipotesi di un monitoraggio delle foto già memorizzate su iCloud, il servizio di archiviazione dei contenuti dell'utente sui server remoti dell'azienda fondata da Steve Jobs. Anche perché, l'azienda americana, da sempre, rivendica grande impegno a favore della privacy, contro le richieste di governi e agenzie, e l'utilizzo di sistemi di crittografia applicati ai dati dei loro dispositivi.

La politica sulla privacy

In base a quanto riportato dal quotidiano, Apple, lo scorso anno, avrebbe aggiornato la sua politica in termini di riservatezza, dichiarando di "eseguire il prefiltraggio o la verifica selettiva dei contenuti caricati in modo da individuare contenuti potenzialmente illegali (inclusi materiali pedopornografici)". Sul sito aziendale, invece, si accennerebbe all'impiego di strumeti di image matching, che letteralmente significa corrispondenza delle immagini, e di firme digitali, al pari dei filitri anti-spam della posta elettronica.

I social network con i minori

Per proteggere i minori e la loro immagine, social network come Facebook e Twitter si sono già affidati a PhotoDNA, cioè una tecnolgoia di corrispondenza delle immagini, sviluppata da Microsoft, tramite cui si riescono a riconoscere le immagini a tema pedopornografico, alle quali sarebbe attribuita una firma unica digitale, essendo memorizzate in enormi database, affinché possano essere rimosse dalla rete.