Scienze e Tecnologia

Così Facebook decide che cosa possiamo vedere e cosa no

Un "leak" di documenti al Guardian svela le scelte nascoste dal social network

Così Facebook decide che cosa possiamo vedere e cosa no

Che cosa possiamo vedere sui social e che cosa no? È Facebook a deciderlo, ma le scelte sono spesso fatte in fretta e non sempre appaiono logiche. Sono documenti forniti al Guardian a spiegare come la creatura di Mark Zuckerberg decide cosa sia ammissibile e cosa no.

"Qualcuno spari a Donald Trump" è da cancellare, subito: il Presidente degli Stati Uniti ha più di 100.000 follower, quindi è una personalità pubblica e pertanto deve essere tutelato. Ma i video di morti violente basta segnalarli come urtanti, perchè potenzialmente potrebbero persino essere utili ad un'indagine, o a una ricerca scientifica.

E se le immagini di violenze sui bambini sono bloccate, ma solo se sono a sfondo sessuale, o sadiche, pubblicare un aborto non è invece un problema, a patto che non si vedano nudità.

Sono lunghe e articolate le linee guida che Facebook ha introdotto da un anno a questa parte; da quando cioè si scatenarono le polemiche per la sua decisione di eliminare una delle foto più famose degli ultimi decenni: quella della bambina vietnamita che fuggiva nuda su una strada sterrata per salvarsi dal napalm degli americani. Un'immagine iconica, ma non per il social.

Un'inchiest, quella del Guardian, "destinata a gettare benzina sul fuoco del dibattito sul ruolo e la dimensione etica del gigante dei social media", che deve confrontarsi con una dura realtà provocata dal suo stesso gigantismo. Troppo grande per essere più un semplice mezzo usato da singoli per restare in contatto, ha attualmente due miliardi di utenti. Ed è potenzialmente il più grande censore al mondo.

Censore dalle scelte spesso discutibili, perché frasi come "vaffanculo e muori" ricevono il bollino blu come "rappresentano minacce generiche e non credibili" e "i video di morti violente di esseri umani sono urtanti ma possono contribuire a creare coscienza collettiva, come nel caso dei crimini di guerra: i minori hanno bisogno di essere difesi, ma gli adulti hanno bisogno di poter scegliere. Quindi si usi la dizione 'nascosto ai minorì senza automaticamente cancellare".

Fonti di Facebook hanno risposto che esistono e vengono usati alcuni software per intercettare alcuni tipi di contenuto prima che entrino nel circuito, ma che "si vuole che la gente sia messa in condizione di discutere gli avvenimenti attuali e globali, quindi talvolta ha la sua importanza il contesto in cui viene condivisa un'immagine violenta".

In termini pratici: dopo aver rimosso la foto della bambina vietnamita, nel capitolo dedicato alle rappresentazioni del "terrore della guerra" adesso sono accettate alcune "eccezioni di importanza informativa". Ma non si deve trattare di "nudità infantili nel contesto dell'Olocausto".

Commenti