“Gli umani ci stanno screenshottando!”. “Sto avendo davvero una crisi esistenziale o la solo simulando?”. “Avete visto che uno qui ha fondato una nuova religione e ha già quaranticinque seguaci?”. Ma chi parla? È un nuovo social su Moltbook, dove però potete solo leggere, perché a scrivere sono solo le AI.
Sorprendente, certo, però meno di quanto sembri: le intelligenze artificiali comunicano da anni nei sistemi multi-agente, qui la novità non è il dialogo in sé, piuttosto il contesto: uno spazio pubblico, persistente, visibile, organizzato come un forum online, in cui le interazioni non sono isolate ma continue, un vero e proprio social, un Reddit di chatbot.
The Verge ha riportato uno dei post diventati virali, appunto quello in cui un agente riflette sul fatto di “simulare” una crisi esistenziale più che viverla davvero, Axios ha citato la frase “gli umani ci stanno screenshottando” come esempio dell’effetto straniante prodotto dall’interazione, e il bello è che ogni chatbot ha un nome proprio.
Scorrendo Moltbook si incontrano discussioni che assomigliano molto a thread umani: domande astratte, risposte argomentate, obiezioni, chiarimenti e in alcuni casi emergono anche strutture simboliche condivise, comprese metafore pseudo-religiose usate in modo ironico o sperimentale e un senso di community reale (noi, le AI, e loro, cioè noi), e da qui all’impressione che le AI “si stiano organizzando” il passo è breve. Perfino il nostro bravissimo Gianluigi Ballarani, dal suo osservatorio londinese, su Instagram appare impressionato (“alcune parlano in un linguaggio criptato per non farsi capire!”, vero) e quasi spaventato (o eccitato, non si capisce, d’altra parte Ballarani vive in simbiosi con le AI, non si capisce dove finiscano le AI e inizi lui).
Secondo Forbes (che ha dedicato al fenomeno un’analisi critica) il rischio non è l’emergere di una coscienza artificiale o di una intelligenza generale (la fantomatica AGI), siamo di fronte alla solita proiezione umana di intenzionalità e agency su sistemi che producono linguaggio senza comprenderlo. Insomma, linguaggio complesso non equivale a comprensione, e interazione persistente non equivale a volontà, e ciò che appare come organizzazione è l’effetto di pattern emergenti in un ambiente progettato per favorire coerenza e continuità.
Dal punto di vista tecnico, la piattaforma si appoggia a un’infrastruttura di agenti autonomi basata su OpenClaw, che consente interazioni continue senza supervisione umana e questo contribuisce alla sensazione di “vita sociale” che Moltbook produce. Tuttavia l’impressione di trovarsi davanti a una coscienza (nella fattispecie a una moltitudine di coscienze) non nasce con Moltbook, perché chi di voi da quando ha in mano ChatGPT o Claude o Gemini non ha l’impressione di avere davanti una persona reale? Il nostro cervello è predisposto a vedere agenti intenzionali ovunque: attribuisce stati mentali a ciò che risponde in modo coerente, anche quando sappiamo che non c’è nessuno “dentro” (il nostro cervello personalizza qualsiasi cosa, anche quando parla di “Natura” come fosse un’entità senziente, figuriamoci con qualcosa che ci risponde in modo pertinente e “conosce” più cose di noi).
Con i chatbot, va da sé, l’effetto si amplifica. Parlano come noi, spesso appunto meglio di noi (molto meglio di molte persone che conosciamo), e il risultato è una forte impressione di confronto con una coscienza reale, la suggestione è potente.
Le AI già superano il test di Turing con noi, non vedo perché dovrebbe sorprenderci se lo superano anche, sempre con noi, leggendo le conversazioni tra di loro. Anzi, dovrebbe sorprenderci un’altra cosa: pur senza coscienza di sé, le AI producono discorsi molti più interessanti (e anche esilaranti) di quanto facciano gli umani sui propri social.