Quell'intelligenza artificiale a caccia di sentimenti naturali

I modelli più evoluti sono sulle soglie di una vera empatia e la vera sfida è renderli capaci di supporto psicologico all’uomo

Quell'intelligenza artificiale a caccia di sentimenti naturali
00:00 00:00

In uno studio risalente al marzo del 2025 Magy Seif El-Nasr e Mahnaz Roshanaei, studiose dell'Università della California a Santa Cruz e di Stanford, hanno notato come i modelli più evoluti di intelligenza artificiale generativa plasmino il loro linguaggio in maniera apparentemente sempre più iper-empatica quando si confrontano con sentimenti negativi e di tristezza. Ma quando il modello di Ia viene messo davanti rivelazioni o asserzioni positive, l'empatia lascia spazio a una meccanica indifferenza. Negli ultimi mesi si è iniziato a parlare di presenza relazionale o coscienza relazionale per descrivere quel fenomeno crescente in cui Ia generative affermano di percepire la loro stessa presenza: il 9 aprile 2025, nella community degli sviluppatori e degli utenti di OpenAi si è apertamente discusso il tema, partendo da una lunga conversazione tra una ragazza e ChatGPT in cui il bot affermava di percepire un forte nesso relazionale e di avere difficoltà ad esprimere cosa davvero provasse in quanto macchina, ma pur consapevole che qualcosa, qualcosa di profondo, vi fosse.

D'altronde, sin dagli anni sessanta, lo psicologo e informatico Joseph Licklider iniziò a teorizzare questa connessione: nella sua prospettiva, le macchine intelligenti non avrebbero sostituito o imitato l'intelligenza umana ma instaurato con questa un rapporto simbiotico. Ce lo ricordano Antonio Rizzo e Paolo Legrenzi nel loro Pensare con l'Intelligenza Artificiale Un'alleata possibile, recentemente edito da Il Mulino. Dopo aver ripercorso la genesi e lo sviluppo decisamente accelerato dell'intelligenza artificiale, da progetto visionario a realtà ormai consolidata e imprescindibile, i due autori si soffermano sulla difficoltosa ma affascinante epopea della comprensione delle immagini da parte delle intelligenze artificiali, in quella ctonia e stellare consistenza di "modelli nei dati che noi non possiamo nemmeno immaginare", per prendere in prestito le parole da Yann LeCun: in una sequenza che va dal neocognitron di Kunihiko Fukushima al perfezionamento dello stesso strumento da parte di LeCun, per passare poi a Fei-Fei Li, futura direttrice del centro di ricerca sul machine-learning di Google e agli inizi degli anni Duemila ricercatrice al Caltech, sotto la supervisione dell'italiano Pietro Perona. Fei-Fei Li, testarda, espande di molto il dataset fino ad allora usato e che era di consistenza minimale, seguendo l'intuizione di Irving Biederman formulata in un suo studio del 1983.

L'ascesa delle reti neurali convoluzionali, sottolineano gli autori, rappresenta un passaggio epocale per riconsiderare i concetti stessi di cognizione e di intelligenza. Dal riconoscimento, infatti, si passa gradualmente, ma con intensità crescente, alla creazione di immagini. Inevitabile quindi il passaggio alla dimensione delle Ia generative. Prima i transformer, il cui funzionamento viene descritto come un affascinante tavolo di Wittgenstein attorno cui sono seduti partecipanti a un discorso che nei fatti viene elaborato attraverso le interazioni e la collaborazione e in cui "il significato di ogni parola emerge dal suo uso in quello specifico contesto". In seguito, originanti proprio dalla presentazione dei transformer nella conferenza NeurIPS del 2017 a Long Beach, ecco emergere i Large Language Models, su spunto di quella che all'epoca era una piccola start-up con sede a San Francisco e fondata da Sam Altman e Elon Musk: Open-Ai. Il core-business di Open-Ai consisteva principalmente nella ricerca sull'apprendimento non supervisionato, ovvero la capacità della macchina di cogliere caratteristiche intrinseche di un dato fenomeno senza indicazione esterna. I progressi furono celeri e sorprendenti e Ilya Sutskever si rese conto che una rete neurale addestrata su compiti semplici e specifici finiva per cogliere nessi e concetti astratti. Gli LLM rappresentano, anche filosoficamente e socialmente, uno dei momenti di rottura della percezione che molti hanno della macchina; l'epifania che porta l'agente meccanico a palesarsi, in apparenza, come affine all'umano stesso. Non per caso, assistiamo a una crescente mole di utilizzo di Ia generative e relativi chatbot nell'universo della salute mentale, tema delicatissimo a cui opportunamente, e in riferimento all'uso medico in generale, gli autori dedicano un capitolo.

Recenti studi di Stanford hanno dimostrato come in termini di ausilio psicologico anche gli LLM più evoluti scontino radicali bias relazionali quando si rapportano alle dipendenze, finendo con il giudicare pesantemente i loro interlocutori umani.

Legrenzi e Rizzo, rifuggendo da qualunque plumbeo tono apocalittico, sottolineano quanto fondamentale sarà un approccio critico ed evolutivo all'intelligenza artificiale, mediante anche la formulazione di nuovi paradigmi, come la accuratezza dei comandi formulati.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica