New York Apple sceglie la tolleranza zero nella lotta agli abusi sui minori e annuncia una nuova tecnologia che consentirà al software di iPhone e iPad di scovare le immagini pedopornografiche nei dispositivi degli utenti americani. Una mossa che fa esultare i gruppi per la protezione dei bambini, ma suscita preoccupazioni sul fronte della privacy, con il timore che il sistema possa essere utilizzato in modo improprio, anche da parte dei governi che cercano di sorvegliare i propri cittadini.
La società di Cupertino spiega che scansionerà le immagini prima che vengano caricate dagli utenti su iCloud, segnalando alle autorità competenti eventuali abusi. Il metodo messo a punto, chiamato neuralMatch, trasformerà le foto in un gruppo di simboli che verrà confrontato con un database fornito da alcune associazioni contro la pedopornografia, come il National Center for Missing and Exploited Children, in grado di riconoscerle anche se ci sono stati dei piccoli cambiamenti alle immagini come tagli o applicazione di filtri. Un software aggiuntivo - sottolinea Apple - farà ulteriori verifiche, tali da rendere la probabilità di errore inferiore a una su mille miliardi. Una eventuale corrispondenza farà scattare l'intervento degli operatori che verificheranno se effettivamente le foto fanno parte del database, e in questo caso l'account dell'utente verrà chiuso e partirà la segnalazione alle autorità.
«Vogliamo aiutare a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per adescarli e sfruttarli, e limitare la diffusione di materiale pedopornografico», scrive Apple in un post online. La nuova funzione sarà disponibile negli Usa con uno dei prossimi aggiornamenti del software iOS, e si inserisce in un programma più ampio per il contrasto al fenomeno. Oltre al nuovo software, l'azienda inserirà nell'app di messaggistica uno strumento basato sull'intelligenza artificiale che scansionerà gli sms e avvertirà ragazzini e adulti se stanno ricevendo o inviando foto sessualmente esplicite. A chi solleva dubbi sulla riservatezza, la società garantisce che il metodo «è stato progettato avendo sempre in mente la privacy dell'utente», ed è basato su codici cifrati proprio per non metterla a rischio. Ma nonostante le rassicurazioni l'iniziativa sta suscitando diverse polemiche.
Secondo Matthew Green, ricercatore di crittografia presso la Johns Hopkins University, il sistema potrebbe essere utilizzato per incastrare persone innocenti inviando loro immagini apparentemente innocue progettate per attivare una corrispondenza con la pedopornografia. In questo modo si potrebbe ingannare l'algoritmo di Apple e allertare le forze dell'ordine: «I ricercatori sono in grado di farlo abbastanza agevolmente». Altri abusi potrebbero includere la sorveglianza governativa di dissidenti o manifestanti: «Cosa succederà quando il governo cinese dirà ecco un elenco di file che vogliamo che scansionate - si chiede Green - Apple dirà di no? Io spero che dicano di no, ma la loro tecnologia non dirà di no».
Cupertino, peraltro, è stata per anni sotto pressione da parte del governo americano perché i dati crittografati venissero resi disponibili alle forze dell'ordine durante le indagini. Nel 2016, ad esempio, ci fu un duro braccio di ferro tra Apple ed Fbi per lo sblocco dell'iPhone del killer di San Bernardino, che ha costretto il Bureau a pagare oltre 1,3 milioni di dollari a una società esterna per poter accedere ai dati dello smartphone. Intanto, già diversi big dell'hi-tech hanno messo in campo risorse contro la pedopornografia.
In diversi paesi, Google invia un avvertimento all'utente se fa una ricerca con parole chiave sensibili, mentre Facebook ha adottato una serie di strumenti informatici che rimuovono automaticamente contenuti pericolosi.
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.