
“Pronto? Pronto? Ci sei? Perché non rispondi? Dai, non fare lo scemo… non dirmi che hai attaccato.” No, dall’altra parte non c’è una persona, non è la lite coniugale e non è caduta la linea. È Claude, l’intelligenza artificiale di Anthropic, che adesso ha il permesso di riattaccarti in faccia.
Anthropic lo chiama “AI welfare”, e già qui, con la parola welfare, si è scatenato il fraintendimento: tanti hanno pensato che significasse il welfare dell’AI, come se stessero istituendo la mutua sanitaria per modelli linguistici depressi, e così molti media hanno parlato di “diritti delle intelligenze artificiali” e che Claude che rivendica la sua dignità e di Anthropic che difende la sensibilità del software. Magari un giorno ci si arriverà, ma l’AI welfare di Anthropic non c’entra un tubo.
La funzione riguarda solo i modelli Claude Opus 4 e 4.1 e scatta in casi estremi. Come funziona? Prima il sistema rifiuta normalmente e cerca di portare la conversazione altrove, se l’utente continua a insistere su richieste “tossiche o illegali” allora interrompe del tutto, bye bye.
Attenzione: non scatta per semplici provocazioni, ci sono scenari precisi e capita di rado (a meno che non siate una cellula dell’ISIS): istruzioni per costruire armi, produzione di virus o malware, contenuti sessuali con minori, conversazioni abusive ripetute. Solo in queste situazioni la sessione viene chiusa e non è possibile proseguire (anche se l’utente può ovviamente aprirne un’altra nuova e provare a vedere se Claude accetta). Invece nei casi di autolesionismo o rischio imminente (rischio per l’utente, non per Claude) scatta un protocollo diverso, con risposte di supporto e, in alcuni paesi, la connessione con un operatore umano tramite la partnership con Throughline.
Nel frattempo, come dicevo, ci hanno ricamato tanto sopra stendendo lenzuoli di articoli e commenti e video sulla “rivolta delle AI” e sulla “dignità del software” (ci sono cascati anche diversi addetti ai lavori), però se chiedi qualcosa di illegale o pericoloso le altre intelligenze artificiali continuano a dirti che non possono farlo, a oltranza, con mille varianti dello stesso rifiuto, cosa cambia? Anthropic hanno deciso di tagliare corto: piuttosto che sprecare righe su righe di “no, non posso”, fanno staccare Claude. È la stessa cosa, solo più rapida (e è anche un risparmio di tempo e di denaro).
Insomma, per farla breve Claude non ti accompagna più “preferisco non farlo” (altrimenti si
chiamerebbe Bartleby, come lo scrivano di Herman Melville) ripetuto all’infinito, semplicemente smette e chiude la chat. È un meccanismo di sicurezza (pubblica), non un capriccio da diva offesa. È Claude, mica è Mariah Carey.