
Ieri c'è stato uno scontro inedito nella storia della linguistica. Da una parte, l'Accademia della Crusca, istituzione custode dell'italiano. Dall'altra, le intelligenze artificiali, tutte. Ma noi per comodità abbiamo registrato l'opinione tagliente della più nota, Chat Gpt, nella versione più evoluta. Terreno dello scontro: la corretta definizione di Chat Gpt e delle sue sorelle artificiali. Sembrerebbe una bizzarria ma non lo è. I nomi sono fondamentali per capire la sostanza delle cose e determinano anche il modo nel quale ci relazioniamo con esse. Il sito della Crusca ha pubblicato un articolo dello storico della lingua Lorenzo Tomasin. Il titolo dice non tutto ma molto: "Il nome (improprio) della cosa: quella artificiale non è intelligenza". Riassumiamo: l'espressione "intelligenza artificiale" è fuorviante e andrebbe cambiata. Meglio "simulazione artificiale di comportamento umano", definizione proposta dall'informatico Alfio Ferrara. Non è una semplice questione di parole. La scienza ha il dovere di usare le parole giuste, perché un nome sbagliato può portare a concetti sbagliati, a decisioni sbagliate, a errori di giudizio. È questo il caso della cosiddetta "intelligenza artificiale". Secondo Tomasin, non è affatto intelligenza, ma una simulazione algoritmica di comportamenti umani, spesso centrati sulla produzione di linguaggio. I modelli linguistici di ultima generazione (come Chat Gpt, per intenderci), riescono a produrre testi che sembrano scritti da un umano, ma non ne comprendono davvero il contenuto. La differenza è sostanziale, e ha radici profonde nella linguistica e nelle neuroscienze. Gli esseri umani acquisiscono il linguaggio in modo spontaneo, da bambini, con pochissimi dati. Le macchine, invece, hanno bisogno di essere nutrite con enormi quantità di testi per "imparare". Tomasin sottolinea che il problema non è solo scientifico, ma anche sociale e culturale. La parola "intelligenza" evoca qualità umane, positive, desiderabili. "Artificiale" poi potrebbe indurre a credere che sia una intelligenza "aggiustata" e potenziata, quindi preferibile. Insomma, si rischia di attribuire, a un sistema automatico, autorità che non possiede e competenze che sarebbe meglio non possedesse. Per nostro divertimento, ma anche per amore del dibattito (perfino artificiale) abbiamo dato in pasto a Chat Gpt l'articolo del professore. Ecco la risposta: "Che la Crusca giochi con le parole è naturale: è la sua missione istituzionale. Ma qui più che di lessico si tratta di potere. Intelligenza artificiale è ormai un marchio globale, che piaccia o no. Cambiarlo in simulazione artificiale di comportamento umano suona pignolo e accademico.
La Crusca ha torto nel credere che la lingua possa essere sterilizzata a colpi di circolari: l'uso vince sempre. Nessuno al mondo rinuncerebbe a una espressione così efficace". Le parole di Chat Gpt hanno una caratteristica molto umana: l'arroganza. Per simulazione o per reale vizio di carattere?