L'ultima follia di ChatGpt: adesso può denunciarti

Ghiglia (Garante della privacy): "I nostri dati vengono letti e analizzati. Da ogni frase può nascere un fascicolo"

L'ultima follia di ChatGpt: adesso può denunciarti
00:00 00:00

Ciò che solo fino a pochi anni fa sembrava un lontano futuro distopico, oggi grazie (o per colpa) dell'intelligenza artificiale è diventato realtà. L'ultima novità ha un che di inquietante e concretizza i peggiori timori del controllo sociale attraverso le nuove tecnologie sulle nostre vite. L'intelligenza artificiale può infatti denunciare un cittadino alle autorità arrivando a filtrare, analizzare e, se necessario, segnalare le conversazioni private.

A sollevare il tema di questa deriva orwelliana è Agostino Ghiglia, membro del Garante per la privacy italiana, che racconta al Giornale come "ogni parola può diventare un fascicolo. Il Confine tra sicurezza e sorveglianza massiva si assottiglia ogni giorno".

"ChatGpt, Claude, Copilot, Gemini - spiega Ghiglia - tutti controllano, filtrano, archiviano, e inviano le chat in caso di pericolo alle autorità, seppur con modalità diverse. Algoritmi scandagliano le conversazioni, filtrano parole chiave, creano pattern, archiviando dati che diventano subito interrogabili; poi arriva l'umano, che decide se passare il fascicolo alle autorità. I nostri dati personali vengono conservati, incrociati, letti, analizzati. Ora un sospetto può nascere da un pattern, non da un fatto".

In sostanza la "Law Enforcement Policy" di OpenAI, la società proprietaria di ChatGpt, stabilisce che, nel caso della presenza di un mandato o di un ordine di un tribunale, i dati e le richieste degli utenti possono essere consegnate alle autorità. L'aspetto che fa ancor più riflettere riguarda però la possibilità in caso di emergenza di inviare una segnalazione anche senza autorizzazione giudiziaria.

La procedura per decidere cosa e chi denunciare avviene attraverso tre livelli. Nel primo livello gli algoritmi di sicurezza cercano parole chiave e contesti "pericolosi", nel secondo livello dei revisori umani valutano se si tratti di un rischio reale e nel terzo livello avviene un contatto con la polizia o i servizi di emergenza. Ad oggi le denunce dovrebbero avvenire solo nel caso di minacce di suicidio, stragi annunciate, abusi su minori ma non sfuggono le criticità di un utilizzo di uno strumento del genere in futuro.

Come spiega Ghiglia "nessuna conversazione è davvero privata. Ogni parola può essere un fascicolo: è questa la nuova normalità. Il confine tra sicurezza e sorveglianza sistematica si assottiglia ogni giorno. E la domanda non è più se siamo controllati, ma chi controlla chi ci controlla, con quali criteri, e come possiamo difendere la nostra libertà e la nostra identità digitale quando il giudizio passa, silenzioso e inesorabile, attraverso un algoritmo".

In poche parole chi ci assicura che in futuro le ricerche effettuate attraverso l'intelligenza artificiale o le domande degli utenti non vengano utilizzate per incriminarli con finalità politiche?

C'è poi un paradosso che sottolinea Ghiglia per cui "mentre Bruxelles si divide sul compromesso tra sicurezza e diritti fondamentali, le multinazionali private hanno già implementato il loro controllo totale".

Perciò, spiega il membro del Garante per la privacy: "Non si può fermare la tecnologia ma bisogna assolutamente tornare padroni dei nostri dati: regole chiare, limiti di conservazione reali, trasparenza sulle richieste delle autorità, strumenti concreti di cancellazione e controllo.

Solo così possiamo usare l'intelligenza artificiale senza consegnarle il potere di usarci".

Spesso la tecnologia ci illude di essere più liberi ma in realtà finiamo per essere più controllati, compromettendo perciò le nostre libertà.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica