Cultura e società

L'inchiesta choc su Instagram: cosa fa vedere ai minorenni

Secondo un'inchiesta del Wall Street Journal, l'algoritmo di Instagram suggerirebbe tra i "reels" video di carattere sessuale o pedopornografico. Meta ha respinto l'esito del test del quotidiano statunitense, ma al tempo stesso ha fatto sapere di aver avviato un'indagine

L'inchiesta choc su Instagram: cosa fa vedere ai minorenni

Ascolta ora: "L'inchiesta choc su Instagram: cosa fa vedere ai minorenni"

L'inchiesta choc su Instagram: cosa fa vedere ai minorenni

00:00 / 00:00
100 %

L'algoritmo di Instagram? Può indirizzare l'utente verso video di carattere sessuale, dopo aver compiuto in precedenza determinate ricerche. Anche gli utenti minorenni, i quali si ritroverebbero fra le proposte anche "reels" non adatti a loro. Questa l'accusa mossa dal Wall Street Journal, che nelle scorse ore ha lanciato un allarme sul funzionamento dell'algoritmo dei reels: suggerirebbe contenuti a sfondo sessuale o pedopornografico. I giornalisti del quotidiano statunitense sono a quanto pare arrivati a questa conclusione dopo aver effettuato un test: hanno aperto diversi profili falsi, scegliendo di seguire solo giovani ginnaste, cheerleaders e influencer adolescenti attivi sul social di proprietà di Meta. Per poi notare che l'algoritmo dei reels faceva vedere vari contenuti vietati ai minori, inclusi alcuni video per adulti. I redattori hanno inoltre scoperto che tra i migliaia di followers degli account aperti da minorenni, ci sono numerosi uomini adulti. Anche il Canadian Centre for Child Protection avrebbe in precedenza effettuato una prova simile, ottenendo gli stessi risultati.

La tesi dell'inchiesta del Wall Street Journal è stata respinta da un portavoce di Meta, secondo cui la metodologia del test del quotidiano degli Stati Uniti non rappresenta la reale esperienza di miliardi di utenti e quello che loro vedono. Ma l'azienda di Mark Zuckerberg, alla richiesta di chiarimenti avanzata dalla testata americana, avrebbe rifiutato di spiegare il motivo per cui gli algoritmi suggeriscono video che mostrano bambini, sesso e pubblicità. Meta non sarebbe però all'oscuro del problema ed avrebbe deciso di approfondire la ricerca effettuata dai giornalisti del Wsj, anche perché diverse aziende (tra le quali Disney, Match Group, Bumble e Hims) avrebbero deciso a seguito di questa indagine di sospendere le rispettive campagne pubblicitarie su Instagram. Secondo il portavoce del colosso tecnologico, ogni mese il social network rimuove o riduce già quattro milioni di video sospettati di violare gli standard sui contenuti sensibili. Non è la prima volta che il Wall Street Journal evidenzia la proliferazione di contenuti a sfondo sessuale per adulti su Instagram.

Stando ad un'altra inchiesta dello scorso giugno realizzata sempre dal quotidiano statunitense e dai ricercatori della Stanford University e dell'Università del Massachusetts Amherst, il social network di proprietà di Meta sarebbe il più utilizzato dalle reti di pedofili per promuovere e vendere contenuti che mostrano violenze sessuali su minori. Questo perché l'algoritmo di Instagram contribuirebbe a mettere in contatto una vasta rete di profili per far fruire contenuti pedopornografici e quindi illegali. Nonostante la moderazione, Instagram consente agli utenti di ricercare determinati hashtag, utili a mettersi in contatto con altri profili dedicati apertamente alla vendita di contenuti relativi all'abuso sessuale su minori. Secondo quanto ricorda il sito Today.it, una semplice ricerca di parole chiave come #pedowhore o #preteensex porta ad account che utilizzano questi termini per pubblicizzare contenuti che mostrano abusi sessuali su minori o atti sessuali compiuti tra minori e animali.

La società di Zuckerberg aveva riconosciuto la presenza di ostacoli alla moderazione dei suddetti contenuti e ha istituito una task force interna per risolvere questo problema, rimuovendo dalla piattaforma migliaia di hashtag utilizzati dai pedofili. Basterà?

Commenti