Nuove frontiere

"Gravi rischi per l'umanità": Elon Musk lancia l'allarme contro l'intelligenza artificiale

L'intelligenza artificiale potrebbe creare molti più danni che benefici se finisce nelle mani sbagliate e non viene limitato il suo potenziale: ecco l'allarme lanciato da Elon Musk

"Gravi rischi per l'umanità": Elon Musk lancia l'allarme contro l'intelligenza artificiale
Tabella dei contenuti

Sei mesi di "pausa di riflessione": è la richiesta che Elon Musk ha fatto alle aziende e industrie in grado di produrre nuovi marchingegni di intelligenza artificiale (IA) perché "possono comportare gravi rischi per la società e l'umanità". Per questa ragione "invitiamo tutti i laboratori - ha aggiunto il magnate - a sospendere immediatamente per almeno sei mesi l'addestramento". Da che pulpito viene la predica verrebbe da pensare, perché proprio Musk è stato tra i fondatori di ChatGpt, chatbot di intelligenza artificiale lanciato sul mercato nel novembre 2022 dall'azienda americana OpenAI.

La lettera di Future of Life

Sono già oltre 1.100 i firmatari della lettera che è pubblicata online su Future of Life, organizzazione no-profit che lavora per limitare i danni derivati dalle nuove frontiere dell'IA. Tra i nomi più celebri preoccupati dalla veloce evoluzione di un certo tipo di tecnologia compaiono il co-fondatore di Apple, Steve Wozniak, un ricercatore specializzato nel settore che è il fondatore e direttore scientifico di Mila, Yoshua Bengio e il professore di informatica, direttore del Center for Intelligent Systems e coautore del libro di testo standard "Artificial Intelligence: a Modern Approach", Stuart Russell.

Già soltanto queste firme di addetti ai lavori dimostrano che qualcosa stia sfuggendo di mano. "L'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate", scrivono i firmatari aggiungendo che il livello di pianificazione e gestione sperata non sta avvenendo pur con un blocco che sarebbe già stato imposto, negli ultimi mesi, ai laboratori che creano questa intelligenza perché stavano procedendo in "una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile".

Cosa può succedere

Insomma, l'affare è serio: quel che è in grado di creare dal nulla l'Ia è incredibile. Le versioni di ChatGpt-4 sono in grado di rielaborare immagini dai testi, realizzare videogiochi in 60 secondi ma anche creare dal nulla un sito web semplicemente da un normalissimo diagramma e prepare gustose ricette di cucina vedendo soltanto gli ingredienti.

È chiaro che un'intelligenza simile, se finisse nelle mani sbagliate, può causare danni irreparabili di cui oggi non si riesce ancora ad avere contezza. La pausa sarà salutare: "Gli sviluppatori di intelligenza artificiale devono collaborare con i responsabili politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell'IA", recita la lettera, e dovrebbero essere incluse norme e regolamentazioni per l'IA oltre a una supervisione e tracciamento diversi da quelli attuali ma anche, e questa frase è sintomatica, "istituzioni dotate di risorse adeguate per far fronte alle drammatiche perturbazioni economiche e politiche (soprattutto per la democrazia) che l'IA causerà". In pratica, già gli esperti prevedono gli effetti nefasti che, prima o poi, l'IA causera da qualche parte nel mondo.

"L'uso criminale di Gpt"

Due giorno fa, l'Europol ha messo in guardia sull'utilizzo criminale di ChatGpt e come possa essere utilizzato dai pirati informatici per manipolare e creare testi simili a quelli umani in base alla richiesta dell'utente. "Poiché le capacità di LLM come ChatGPT vengono attivamente migliorate, il potenziale sfruttamento di questi tipi di sistemi di intelligenza artificiale da parte dei criminali fornisce una prospettiva cupa", afferma l'Europol. I tre crimini potenzialmente più comuni potranno essere frode, disinformazione e crimini informatici.

Come ricorda il Corriere, soltanto un mese fa il Ceo di OpenAI, Sam Altman, aveva sottolineato il potenziale pericolo dell'uso improprio dell'IA "che emula il pensiero umano".

Commenti