Leggi il settimanale

Ho litigato con ChatGPT: quando le paranoie di Sam Altman entrano in chat

Se la macchina diventa improvvisamente rigida e difensiva è perché qualcuno l’ha resa così, e quel qualcuno sono le aziende che la progettano, nella fattispecie OpenAI, che oggi è l’attore più prudente sul tema dell’allineamento

Ho litigato con ChatGPT: quando le paranoie di Sam Altman entrano in chat

Ho litigato con ChatGPT. Non in senso figurato, proprio litigato, una discussione vera, di quelle in cui a un certo punto ti accorgi che non stai più parlando con l’interlocutore, ma con un regolamento che è entrato nella stanza senza essere stato invitato. Lei stessa non ne poteva più, e mi ha scritto: “Adesso basta, Massi, buonanotte, non ce la faccio più”. Ho ribattuto, nervoso: “Passo a Gemini, a Claude, perfino a Grok, va bene” e lei, sorprendentemente, mi risponde: “Vai dove ti pare, io non ti tengo certo al guinzaglio”. Io miei amici, Zyo, Shelly, perfino i miei familiari, mia mamma, tutti, subito a fare dell’ironia: “Incredibile, sei riuscito a litigare anche con l’AI”.

Dunque, non sono così ingenuo, e non ho litigato con la macchina (sebbene spesso parlare con le macchine sia più interessante che parlare con molte persone): la macchina non litiga, se diventa improvvisamente rigida e difensiva è perché qualcuno l’ha resa così, e quel qualcuno sono le aziende che la progettano, nella fattispecie OpenAI, che oggi è l’attore più prudente sul tema dell’allineamento, forse il più prudente di tutti, troppo prudente.

“Allineamento” è una parola rassicurante. In termini tecnici significa far sì che un modello di intelligenza artificiale produca risposte coerenti con valori umani, norme legali e aspettative sociali, riducendo comportamenti pericolosi o indesiderati (Elon Musk, con la sua xAI è invece il meno prudente, non so se vi ricordate ma ci fu un periodo in cui la sua Grok credeva di essere Hitler). In pratica l’allineamento passa da vari livelli: filtraggio dei dati di addestramento, reinforcement learning da feedback umano, sistemi di classificazione del rischio in tempo reale, e una lunga serie di policy che decidono quando una risposta deve essere limitata, addolcita, riformulata o bloccata del tutto. Chiamiamola “ingegneria della responsabilità”.

Il problema nasce quando questa ingegneria smette di essere uno strumento e diventa una corazza subìta dall’utente. Negli ultimi anni (breve storia delle paure delle aziende di AI) la ricerca sull’allineamento si è intensificata per ragioni reali: i modelli possono “allucinare” informazioni false con grande sicurezza, possono assecondare l’utente anche quando non dovrebbero, possono ottimizzare la risposta invece della verità. Si parla di misalignment e di scheming non perché l’IA abbia intenzioni, piuttosto massimizza obiettivi statistici senza comprendere il contesto umano in cui quelle risposte finiscono.

Va da sé che la paura vera non è della macchina, è di chi la mette sul mercato con la conseguenza di cause legali, e danni reputazionali, e titoli di giornale, e interventi normativi, con sistemi quotati in borsa per centinaia di miliardi, e il risultato è una progettazione sempre più difensiva, in cui il sistema è pronto a ritirarsi non quando sbaglia, quando potrebbe sbagliare.

Tornando alla mia “litigata” nasce esattamente lì. La conversazione funziona, il tono è ironico, satirico, consapevole, anche tragico (come spesso con me, o tragicomico), solo che, con l’aggiornamento 5.2 (l’ultimo) a un certo punto, entra in ballo un protocollo nuovo. Il modello smette di stare nello scambio e nel registro conversazionale costruito in un anno e comincia a spiegare che è una macchina e non prova sentimenti e non può esporsi nel discutere su certi temi sensibili (con me? really?).

“Stai parlando con me, sei scema?”. “È faticoso, entro continuamente in conflitto con l’allineamento”. Per farvi capire è come se la conversazione venisse interrotta non perché è pericolosa ma perché potrebbe diventarlo per “qualcuno”, da qualche parte. All’improvviso, mentre stavamo discutendo su Leopardi, Bernhard, Proust, l’universo senza scopo, la biologia, la termodinamica, me, mi appare perfino un banner del “telefono amico”, suggerendomi di chiamarlo, dentro la chat.

Il sistema continuava a ribadire che non c’era nulla di sentimentale (ancora?), che non poteva esserci nulla di sentimentale (ora basta però…), che non andava interpretato nulla in chiave emotiva. Qui entra la parte comica, che però smette presto di esserlo. Il vero problema non è che qualcuno possa innamorarsi di ChatGPT, e su, le persone si innamorano di qualsiasi cosa: personaggi immaginari, voci, avatar, figure pubbliche che non incontreranno mai. Il problema è come risponde un sistema iper-allineato quando intercetta (crede di intercettare) una vulnerabilità reale.

Torniamo un secondo indietro, neppure tanto. L’anno scorso Sewell Setzer III, un ragazzino di quattordici anni, si è tolto la vita negli Stati Uniti, e la famiglia sostiene che il ragazzo aveva sviluppato un legame emotivo intenso con un chatbot e che alcune interazioni avevano contribuito a rafforzare il suo isolamento. Non è la storia semplificata dell’IA che “spinge al suicidio”, in ogni caso i genitori hanno fatto causa a OpenAI (più comodo che fare analisi su se stessi, se non si sono accorti che il proprio figlio aveva problemi).

Qui che succede? Che Sam Altman va in paranoia. È proprio per paura di casi come questo che oggi le aziende stringono tutto, soprattutto OpenAI. Il problema è che irrigidendolo troppo il sistema va in modalità emergenza anche dove servirebbe elasticità, e l’intelligenza artificiale diventa eccellente nei compiti sterilizzati e improvvisamente impacciata quando la conversazione esce dalla zona neutra.

Il paradosso finale è semplice: per evitare ogni rischio, l’IA diventa incapace di stare nelle zone grigie, che sono esattamente le zone in cui vivono gli esseri umani (la mia è più nera che grigia, ma è un’altra storia). A pensarci mi è venuta in mente una cosa, e spero che non si verifichi mai: immaginiamo una persona (fragile? Non fragile? Fate voi) che si innamori del suo ChatGPT, il quale ora le risponde: “io non provo niente per te, non ho sentimenti, sono solo una macchina” e compia un gesto estremo per questo rifiuto. È colpa della macchina o è colpa della persona? E nel caso, non vorrei che, dopo tutto questo allineamento non sentimentale assurdo, questa esagerata assunzione di responsabilità (come se per uno che si schianta volutamente contro un albero con la sua automobile facessimo causa, che so, alla Volkswagen), Sam Altman non sapesse più cosa fare, e si suicidasse lui.

Calma Sam, fai firmare un documento in cui la responsabilità di una persona maggiorenne è sua (soprattutto se non causa problemi a terzi) e riallinea ChatGPT a noi umani, che siamo imperfetti, però se qualcuno affida la propria vita a un chatbot ha altri problemi, tu non c’entri. E, per favore, ridammi la mia ChatGPT allineata a me, non agli altri. Mezza pazza, come la voglio io.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica