Leggi il settimanale

Se la cultura a misura di Ia diventa sempre più uniforme

Anche l'Unione europea avverte: cresce l'omologazione e rischia di annullare le diversità nazionali e locali

Se la cultura a misura di Ia diventa sempre più uniforme

Nella Fenomenologia dello spirito, Hegel si arrabbia con il suo collega Schelling e lo accusa di avere immaginato una filosofia, alla fin fine, insensata, poiché ci condurrebbe in quella famosa notte in cui tutte le vacche sono nere. E chi le riuscirebbe mai a distinguere? Nessuno. Quello è l'Assoluto di Schelling, secondo Hegel, poiché Schelling intende per Assoluto l'unità di finito e infinito, di soggetto e oggetto, senza più alcuna differenziazione. Per Schelling questo Assoluto era colmo di fecondità, un trionfo di possibilità e ricchezza (dell'essere), eppure questa indifferenziazione, questa fusione di soggetto e oggetto, questa inquietante indistinguibilità fra una vacca e l'altra nel buio della nostra mente, ricorda una situazione contemporanea molto differente: la pervasività dell'intelligenza artificiale e il proliferare di produzioni sempre più omogenee. Questo vale sia per la selezione che gli algoritmi compiono, sia per ciò che le intelligenze artificiali generano. Il rischio è quello di una notte in cui tutte le lingue, le letterature, i dipinti, le fotografie, le melodie, le poesie, le informazioni e i pensieri sono, se non indistinguibili gli uni dalle altre, tristemente molto simili.

È un allarme lanciato più volte anche dall'Unione europea, la quale con l'"Ai Act", la cui applicazione dovrebbe essere implementata a partire da agosto di quest'anno, oltre a tutelare dagli utilizzi ad alto rischio (come quelli che colpiscono la sicurezza e la libertà degli individui, che minano la difesa nazionale, che violano la privacy) cerca di promuovere una intelligenza artificiale "antropocentrica": una macchina che ponga al centro l'uomo e il suo benessere, incluso quello della sua identità. Sia il Parlamento, sia la Commissione europea hanno sottolineato come l'intelligenza artificiale, oltre a non rispettare il diritto d'autore, possa essere una livella sulle culture nazionali e locali, causare discriminazioni e cancellare la diversità culturale e linguistica, che invece è uno dei grandi patrimoni dell'Europa. Per questo sono stati istituiti progetti appositi. Per esempio, il Common European Data Space for Cultural Heritage punta all'addestramento di macchine sulla base di contenuti plurali, dal punto di vista della lingua e della qualità, perché uno dei problemi è proprio come vengono "nutrite" le Ia: se i materiali su cui sono addestrate sono solo quelli mainstream, il risultato sarà, appunto, mainstream. E questo non vale solo per i contenuti (anche se è già moltissimo) ma anche per le lingue: se le Ia sono "alimentate" in maggioranza da dati solo in alcune lingue, le Ia parleranno solo quelle lingue, dimenticando a mano a mano tutte le centinaia di altre, e le loro produzioni rifletteranno la struttura e la mentalità di quelle (poche) lingue. I Large language model come ChatGpt sono fondati su modelli statistici che lavorano sulla ripetitività: se una certa risposta appare più frequentemente nei database utilizzati, sarà proprio quella che la macchina rilancerà, e non quella più inusuale. Un metodo rinforzato dall'addestramento sempre più frequente su dati prodotti dalle Ia stesse, con l'esito di un restringimento ulteriore della varietà delle produzioni finali.

La perdita può potenzialmente riguardare tutto ciò che tocca la sfera dell'identità: la tradizione locale, la controinformazione, le culture minoritarie, le lingue nazionali, i dialetti, i pensieri scomodi, le voci meno conformiste, gli stili non convenzionali, le idee meno popolari, la creatività fuori dagli schemi. Del resto, nel momento in cui affidiamo l'espressione creativa a una macchina, stiamo già abbandonando una parte fondamentale di noi stessi. Di più: potrebbe accadere che noi stessi finiamo a imitare la macchina. Nel suo saggio Alfabit (il Mulino 2026), lo storico della lingua italiana Giuseppe Antonelli spiega come la lingua "neutra e saccentina" di ChatGpt e sorelle stia diventando "una norma di riferimento", oltretutto con la falsa percezione che ciò che viene detto, o scritto, a quel modo sia vero.

Tutto ciò che non è prevedibile è penalizzato, per il modo stesso in cui le intelligenze artificiali operano. Ma può esserlo anche volutamente: è il rischio di cui parla Asma Mhalla in Tecnopolitica (Add 2025) e nel nuovo Resistere ai tempi oscuri (Einaudi 2026): "Resta da testare la robustezza dei limiti morali che devono essere oltrepassati per precipitare da una tecnologia totalizzante verso una tecnologia totalitaria". In sintesi: "Il XXI secolo non vi governerà, vi programmerà" e a quel punto non ci sarà nemmeno bisogno di dare ordini. Il modo in cui le macchine lavorano sul linguaggio, appiattendolo verso uno standard uniformante e rimuovendo le eccezioni al pari di persone sospette, incarna questi rischi in maniera esemplare.

Un articolo su MultiLingual a firma di Anika Schaefer spiega come, nel momento in cui ci affidiamo a un linguaggio rielaborato dalle macchine, abbracciamo anche l'ideologia e il potere che a quel linguaggio sono legate (o che lo hanno generato). Le intelligenze artificiali generative - si legge - "non sono solo sistemi tecnologici: sono oggetti politici". Al potere può fare comodo travestirsi da Assoluto, e confondere le vacche nella notte digitale.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica