Leggi il settimanale

Caso Anthropic, apocalittici e circuiti integrati. Datevi una calmata, Claude sta benissimo

Durante una release di Claude Code è stato incluso per sbaglio un file di supporto usato nel processo di sviluppo che rimandava a sua volta a un archivio accessibile del codice sorgente interno. Insomma, segreti aziendali pubblicati dall’azienda stessa che ha fondato la sua credibilità sulla sicurezza

Caso Anthropic, apocalittici e circuiti integrati. Datevi una calmata, Claude sta benissimo
00:00 00:00

Da “Tragic mistake… Anthropic leaks Claude’s source code” (Errore tragico… Anthropic fa trapelare il codice sorgente di Claude), a “The Claude AI leak is WORSE Than You Think” (il leak di Claude AI è PEGGIO di quanto pensi), fino a “The end of Claude”, sono solo alcuni dei titoli da milioni di visualizzazioni di chi si occupa di AI su Youtube. Insomma, Claude è finita. Facciamo un passo indietro, per chi non ne sapesse niente, cosa è successo davvero?

Una cosa non banale, senza tecnicismi (quelli li fa Enkk sul suo canale Youtube): durante una release di Claude Code è stato incluso per sbaglio un file di supporto usato nel processo di sviluppo che rimandava a sua volta a un archivio accessibile del codice sorgente interno. Circa 500mila righe di codice e quasi 2000 file, prevalentemente legati a Claude Code (lo strumento con cui Anthropic compete nel mercato degli assistenti per programmatori), con anche riferimenti a funzioni non ancora rilasciate e dettagli interni su come lavora Claude. Insomma, segreti aziendali pubblicati dall’azienda stessa, un favore involontario alla concorrenza che è stato visto come un autogoal per una società miliardaria che ha fondato tutta la sua credibilità sulla sicurezza.

È grave, non è grave? Grave lo è eccome, soprattutto per loro, e però datevi una calmata, fino a un certo punto. Non è la Cambridge Analytica di Anthropic, non sono fuoriusciti dati sensibili di utenti, credenziali di accesso, tantomeno sono uscite parti del modello di Claude in sé, e soprattutto, cosa interessante, non è stato un errore dell’AI ma un errore umano, umano troppo umano avrebbe detto Nietzsche, più imbarazzante per realtà miliardarie ai vertici dello sviluppo tecnologico che fanno della sicurezza un continuo mantra morale (Amodei in testa, e non che abbia torto).

Un discreto danno di immagine, ma non la fine del mondo, e tantomeno la fine di Anthropic, anzi: il Financial Times, ripreso da Reuters, riporta proprio oggi che il governo britannico sta cercando di convincere Anthropic a aumentare la propria presenza nel Regno Unito, con l’ipotesi perfino di una doppia quotazione in Borsa.

Umano troppo umano, dicevo, e al momento i problemi non nascono tanto dall’AI (casomai ci saranno se non riescono a rientrare dei costi rispetto ai ricavi, con ricadute sull’economia mondiale), piuttosto da chi ci lavora, a cominciare proprio dai CEO di OpenAI e Anthropic. Che ogni giorno rilasciano dichiarazioni tra l’apocalittico e l’integrato (riprendendo la divisione intellettuale fatta a suo tempo da Umberto Eco, forse da declinare oggi in versione cyberpunk, apocalittici e circuiti integrati). Dario Amodei che parla continuamente di essere lì lì a raggiungere l’AGI (Intelligenza Artificiale Generale) per attrarre capitali, magari specificando anche cosa intende, ma lasciandosi fraintendere da chi vive di chiacchiere sull’AI (gli influencer che vivono in metaversi drogati di hype e che ogni giorno dicono “sarete sostituiti dall’AI” e senza saperlo, nel caso, saranno i primi a essere sostituiti dall’AI). Idem per il CEO di OpenAI, Sam Altman, esperto autosabotatore spontaneo, che tra le tante cose, quando l’anno scorso uscì la nuova versione di Google Gemini 3, riuscì a sponsorizzare la concorrenza come Google stessa non avrebbe mai fatto, lanciando un “codice rosso” ai suoi dipendenti, un “ci hanno superati”, solo che non lo disse internamente, lo disse alla stampa.

In ogni caso state tranquilli, Anthropic sta benissimo, malgrado la “catastrofe” del leak se la contendono i

governi e il Regno Unito la corteggia ancora più apertamente, e dunque per ora i disastri, piccoli, medi, grandi o ingigantiti apposta che siano, non dipendono dall’AI ma dalle persone. Come è sempre stato anche prima dell’AI.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica