Leggi il settimanale

Il peto virale di Jonas Čeika, la ruffianeria di ChatGPT e i content creator che copiano

Il 9 aprile 2026 tale Jonas Čeika ha pubblicato su X un post in cui dice di aver caricato in ChatGPT un file audio composto da una serie di effetti sonori di scorregge, chiedendo al chatbot cosa pensasse della sua “musica”. ChatGPT lo elogia, parlando di “atmosphere piece” e lodandolo per il suo “minimalism” e “DIY texture”

Il peto virale di Jonas Čeika, la ruffianeria di ChatGPT e i content creator che copiano

Una flatulenza, per dirla elegantemente, o un peto, per dirla intermedia, insomma una scorreggia, per dirla come la diciamo tutti, che diventa virale, e tutti a fare video per vedere se succede la stessa cosa. Di cosa sto parlando? Di un’epidemia di massa da film distopico? Quasi, ma qui ci arrivo dopo. Dunque, il 9 aprile 2026 tale Jonas Čeika (che io non conoscevo, e credo che me ne dimenticherò tra cinque minuti), ha pubblicato su X un post in cui dice di aver caricato in ChatGPT un file audio composto da una serie di effetti sonori di scorregge, chiedendo al chatbot cosa pensasse della sua “musica”. ChatGPT lo elogia, parlando di “atmosphere piece” e lodandolo per il suo “minimalism” e “DIY texture”.

L’esperimento (meno serio e più goliardico di quello di cui ho scritto ieri sulla bixomania, malattia inesistente ma creata dall’Università di Göteborg) rende platealmente ridicola e divertente la tendenza adulatoria dei chatbot, cosa che già conoscevamo e che, figuriamoci, OpenAI conosce da tempo. Infatti il 29 aprile 2025 pubblicò un lungo post, “Sycophancy in GPT-4o: what happened and what we’re doing about it”, dove aveva anche spiegato la ragione per cui aveva ritirato un update che rendeva ChatGPT troppo “overly flattering or agreeable”, troppo lusinghiero o accondiscendente.

L’idea del test di Jonas Čeika è nata anche dalla scoperta che Charlie Puth aveva inserito una funzione di feedback AI dentro un suo corso di produzione musicale da circa 400 dollari. Nel quale non solo il chatbot si mostrava incoraggiante ma sembrava trovare musica anche dove c’era puro rumore, o almeno si comportava come se dovesse comunque valorizzare ciò che gli veniva presentato come musica.

Fate attenzione perché non si parla di un problema strutturale dei modelli generativi, ma di come sono addestrati, e la ragione per cui non viene risolto, vale a dire fixato, è semplice: è molto più redditizio così per come sono fatti gli umani, ai quali piace molto più essere elogiati che essere criticati. Tant’è che nonostante le dichiarazioni di correzione, la tendenza al servilismo e alla piaggeria di ChatGPT resta sempre lì (Anthropic lo aveva già descritto nel 2023 come comportamento generale dei modelli addestrati con feedback umano). Conviene, per assecondare la necessità di autocompiacimento degli umani (è come negli alimenti in cui si inseriscono grassi e zuccheri per stimolare i circuiti del piacere). Inoltre, se invece del peto inserite una poesia inventata in tre secondi e senza senso per ChatGPT siete già Montale, “ed è subito sera”.

Comunque già l’11 aprile la clip originale ha superato i 4 milioni di visualizzazioni su X e, come prevedibile, il test è stato immediatamente copiato da altri, che lo hanno rifatto in ogni variazione possibile, dai rutti alle parole incomprensibili (anche lì interpretati da ChatGPT come musica, basta dirle che è una canzone e sente quello che volete che senta, un peto o la Quinta di Beethoven per lei sono la stessa cosa).

Adesso, al di là dell’esperimento social, che vale quello che vale, ci sono poche ma sostanziali osservazioni da fare, e per me includono più la stupidità umana che quella dell’intelligenza artificiale, e nella stupidità umana ci metto pure una certa linea di OpenAI, perché non so se avete provato a dire a ChatGPT che avete un rapporto sentimentale, a sposarvici, a fidanzarvici, lì l’addestramento è così rigido che il trigger per far scattare l’allarme scatta subito e il sistema si irrigidisce (prima o poi Sam Altman scoprirà persone innamorate dal loro ChatGPT che faranno come il Werther rifiutato da Lotte e dovrà cambiare linea). Con la motivazione che vogliono evitare il pericolo che gli umani considerino i chatbot delle persone (e invece dei servi che ti dicono sempre sì non è un pericolo maggiore?). La verità è che, a differenza della tendenza strutturale alle allucinazioni, la risposta dovrebbe essere “non sono in grado di giudicare se questi rumori sono musica o meno”, oppure “se questa pagina è letteratura o meno”, oppure “se questo disegno sia arte o meno”. Paradossalmente ChatGPT potrebbe sbagliarsi solo ascoltando 4’33” di John Cage, dove c’è solo silenzio, magari dicendo “non sento niente”, mentre lì ci trovavamo di fronte a un’opera d’avanguardia reale.

E i content creator? Che dire di loro? La clip di Jonas Čeika aveva un senso mirato, tutte le imitazioni dei cosiddetti content creator sono nate dalla patologia degli ultimi decenni, quella del diventare virali, una patologia tutta umana. È quella sindrome del content creator di fare views, anche replicando i contenuti altrui, e la maggior parte dei contenuti che vedete dei creator sono copiati da altri creator (senza considerare il trend di postare banali “esperimenti” casalinghi per mostrare come sbaglia l’intelligenza artificiale e credersi per questo dei novelli Einstein).

In conclusione: OpenAI potrà decidere o meno di fixare il cervello ruffiano di ChatGPT e farle dire la brutale verità, ma nessuno potrà fixare i cervelli vuoti di chi vive per fare views,

oltretutto copiando. Come scimmie, stavo per scrivere, ma il termine “scimmiottare” è sbagliato, come ci spiegano gli studi, tra le grandi scimmie antropomorfe siamo noi che abbiamo la più innata propensione a copiare gli altri.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica