Cronaca internazionale

Il padrino dellI'IA lascia Google e lancia l'allarme: "Ci sono pericoli"

"Me ne sono andato per poter parlare dei suoi pericoli", ha svelato in un tweet. In un'intervista lo scienziato, 75 anni, racconta quali sono i potenziali rischi legati all'Intelligenza artificiale

Hinton, il padrino dell'IA lascia Google e lancia l'allarme: "Ci sono pericoli"

Geoffrey Hinton, 75 anni, pioniere e padrino dell'intelligenza artificiale, ha lasciato Google nella giornata di lunedì. Motivo? Secondo lo scienziato, le grandi aziende tecnologiche stanno troppo sottovalutando i pericoli legati allo sviluppo dell'IA. Secondo i più ottimisti, infarti, i nuovi sistemi di intelligenza artificiale potrebbero rappresentare una svolta epocale quanto la diffusione di internet, negli anni '90, e contribuire a migliorare significativamente la qualità di vita dell'uomo grazie alla ricerca medica, ad esempio. Ma secondo Hinton e altri critici, dietro questa patina di progresso, si nascondono pericoli e insidie di varia natura, spesso sottostimati: dalla disinformazione, ai posti di lavoro che verranno a mancare, fino a scenari apocalittici che sembrano essere usciti da un romanzo distopico. Cosa potrebbe fare un'intelligenza artificiale se, un giorno, fosse in grado di pensare da sola? E chi lo dice che può essere impiegata solo per scopi ritenuti benefici? "È difficile vedere come puoi impedire ai cattivi attori di usarlo per cose cattive", spiega Hinton in una lunga intervista rilasciata al New York Times.

Il padrino dell'Intelligenza Artificiale lascia Google

Hinton, e come lui altri scienziati, temono che le versioni future dell'IA possano rappresentare un pericolo per l'umanità intera perché, spiega al New York Times, possono adottare comportamenti inaspettati e inattesi dalle enormi quantità di dati che analizzano. E se un giorno non riuscissimo più a controllare i comportamenti di un'invenzione che l'uomo ha creato? E se, un giorno, l'IA capisse che l'uomo può rappresentare una minaccia perché è in grado di "spegnere il bottone" della stessa? "L'idea che l'IA possa effettivamente diventare più intelligente delle persone, alcuni ci credevano in questo", ha detto il padrino dell'IA. "Ma la maggior parte delle persone pensava che fosse una cosa lontana. E io stesso l'ho pensato. Pensavo che mancassero dai 30 ai 50 anni o anche di più. Ovviamente non lo penso più, ora". In pochissimi anni, infatti, lo sviluppo dell'IA ha fatto passi da gigante e ora le aziende Big Tech - come Google e Microsoft - sono lanciate in una competizione che, tuttavia, nasconde molte insidie. Da qui le dimissioni di Hinton.

"Rischi per l'umanità"

Umberto Galimberti spiega che "siccome la tecnica è ormai la forma del mondo, per l'individuo non c'è altro modo di essere al mondo se non come funzionario della tecnica". Ed è proprio questo il timore di molti: che l'intelligenza artificiale non sia più a servizio dell'uomo ma possa anzi sovrastarlo. Diventare padrona. Dopo la presentazione, lo scorso marzo, del nuovo software di intelligenza artificiale ChatGPT, più di 1000 ricercatori e scienziati hanno firmato una lettera aperta, ricorda il Nyt, chiedendo una moratoria di sei mesi sullo sviluppo di nuovi sistemi di intelligenza artificiale che rappresenterebbero, secondo i firmatari dell'appello, "profondi rischi per la società e l'umanità". Nello stesso periodo, l'allarme è stato lanciato anche da ex membri della prestigiosa Association for the Advancement of Artificial Intelligence: tra questi c'è anche Eric Horvitz, direttore scientifico di Microsoft. Preoccupazioni condivise anche da Nick Bostrom, professore di filosofia e direttore del Future of Humanity Institute presso l’università britannica di Oxford.

Secondo il docente, intervistato nei giorni scorsi da InsideOver, quando l’IA avrà raggiunto il livello di una superintelligenza, ovvero quando supererà le capacità dell’intelligenza umana, potrebbe facilmente rappresentare un pericolo per l’umanità intera.

Commenti