Scienze e Tecnologia

Molestie su Twitter, stop a insulti e minacce

Milioni di nuovi utenti potranno provare la Safety Mode di Twitter, per abilitare la rimozione dei post violenti, minacciosi e molesti, lasciando che gli algoritmi del social facciano tutto in autonomia

Molestie su Twitter, stop a insulti e minacce

Twitter ha ampliato la portata della sua Safety Mode, un'opzione che promette di censurare, in automatico, i post molesti, violenti e minacciosi, generalmente indirizzati verso utenti specifici che hanno posizioni contrarie a quelle del leone da tastiera di turno. Dopo un certo periodo di test per un ristretto gruppo di twittatori, la modalità di sicurezza viene estesa nella versione beta agli account di lingua inglese negli Stati Uniti, Regno Unito, Canada, Australia, Irlanda e Nuova Zelanda. La volontà è quella di raccogliere maggiori informazioni su come la modalità riesca a capire il contesto dei tweet, migliorando giorno dopo giorno la qualità dei suoi interventi di censura autonoma.

L'Italia non è ancora tra le nazioni destinatarie della nuova disponibilità sebbene il nostro Paese, ancora oggi, debba fare i conti con migliaia di account che giornalmente usano i loro caratteri a disposizione per insultare, infangare, minacciare e promettere l'inverosimile a chi ha opinioni differenti su argomenti diversi, dai vaccini al Green Pass, passando per lo sport e, persino, il vip preferito del Grande Fratello. Da noi, come altrove, Twitter deve affrontare una continua lotta con la "salute" delle conversazioni online. Nel corso degli anni, ha implementato una serie di modifiche e aggiornamenti nel tentativo di risolvere questo problema, anche se la Safety Mode potrebbe in effetti essere la definitiva: nascondere risposte offensive ai propri tweet non renderà le persone meno rabbiose di quanto siano ma ridurrà sicuramente la discussione con gli "hater", visto che non vi saranno commenti infuocati a cui appigliarsi. Censurare farà di Twitter un luogo migliore? No se l'obiettivo resta la trasparenza e la libertà di parola ma dare meno voce ai violenti probabilmente li spingerà altrove, ed è questo che all'azienda interessa.

Una volta che gli algoritmi di Twitter eliminano un commento, lo stesso account da cui proviene non potrà interagire con la "vittima" per almeno sette giorni, né in bacheca né nei messaggi privati e tantomeno vedere quello che ha postato. Il sistema non è perfetto ed è il motivo per cui ci sarà una sezione dentro cui controllare se effettivamente i post censurati sono così ignobili come rilevato o se qualcuno poteva essere pubblicato e non lo è stato.

In tal caso, il diretto interessato potrà abilitare la risposta nascosta, migliorando ulteriormente l'automatismo dietro al servizio.

Commenti