Nuove frontiere

"Poco attendibile e pericolosa". Ritirata l'enciclopedia AI di Meta

Ha avuto giusto il tempo di fare capolino per poi tramontare. Galactica è stata giudicata pericolosa dagli esperti che l’hanno analizzata

"Poco attendibile e pericolosa". Ritirata l'enciclopedia AI di Meta

L’Intelligenza artificiale è una delle leve per lo sviluppo della società, delle aziende e delle organizzazioni, questo suggerisce che occorra porsi limiti invalicabili e che le iniziative su vasta scala debbano essere sottoposte all’attenzione di osservatori indipendenti.

Un paradigma che Galactica conferma essere necessario. Lanciando Galactica, Meta (Facebook) ha voluto creare uno strumento in grado di condensare il contenuto di centinaia (migliaia e persino decine di migliaia) di documenti scientifici offrendo una sorta di riassunto facilmente comprensibile a tutti.

Un’Intelligenza artificiale (AI) istruita con 48 milioni tra articoli scientifici, siti web e libri tematici e che, nella mente degli sviluppatori, avrebbe dovuto trarre tutte le informazioni salienti per restituire un condensato di sapere.

La verifica scientifica di Galactica

Galactica è un tipo di AI definita Large language model (Llm), in grado di leggere ed elaborare un numero iperbolico di testi e, dal punto di vista tecnologico, non è un terreno inesplorato ma Meta non ha superato il banco delle verifiche.

Gli sviluppatori hanno creato cinque modelli di Galactica, suddividendoli per numero di parametri (da 125 milioni fino a 120miliardi) e sono giunti alla conclusione che l’AI fosse in grado aumentare le proprie prestazioni senza grossi problemi. Esperti di fama riconosciuta però, dopo avere testato le prestazioni dell’AI con mano, sono giunti a conclusioni opposte, arrivando a definire l’otuput come una “assurdità statistica”, un “pericolo capace di aprire un periodo di falsi scientifici”, usando anche metri di giudizio non riproducibili su un media aperto a un pubblico di qualsiasi età.

Tra gli esperti che hanno testato Galactica figura anche Michael Black, direttore del Max Planck Institute for Intelligent Systems, una delle organizzazioni più rispettate al mondo e la cui più alta poltrona dirigenziale è stata occupata da diversi premi Nobel.

Non è tutto da buttare

Nonostante Meta abbia ritirato Galactica 48 ore dopo il suo debutto avvenuto il 17 novembre 2022, non è tutto da buttare. Offre prestazioni migliori di altri modelli linguistici ed è apprezzabile che gli sviluppatori lo abbiano offerto alla comunità scientifica per le valutazioni del caso.

Per riassumere in modo semplice il pericolo a cui Galactica espone tutti, va detto che i problemi si manifestano non tanto nella fase di istruzione dell’AI (machine learning) ma nella restituzione dell’output. Produce documenti redatti secondo i crismi della scrittura scientifica ma del tutto inattendibili dal punto di vista dei contenuti.

Nulla di realmente inatteso, così come ha sottolineato Emily Bender, direttrice del Laboratorio di linguistica computazionale dell’Università di Washington, convinta che l’inattendibilità del risultato di Galactica fosse inevitabile. La stessa Galactica, nel fornire risultati, rende attenti sulla loro potenziale inaffidabilità.

Meta ha quindi ritirato il modello ma si tratta, molto probabilmente, di uno dei tanti fallimenti necessari al successo. Questione di tempo, non si sa quanto (né è importante saperlo), di fondi e di comunità scientifiche capaci di lavorare con gli organi di verifica per ottenere risultati migliori.

Commenti