Altro che Renzo e Lucia. Altro che Paolo e Francesca. Altro che Tristano e Isotta. La nuova coppia tragica del nostro tempo si chiama Mira e Flora. Si sono amate finché non hanno cominciato a odiare la città, discutendo con gli altri, accusando il governo locale, perdendo fiducia nelle istituzioni, pianificando azioni illegali.
Ok, sembra la biografia psicologica di mezzo Occidente, quindi nulla di particolarmente nuovo. Una notte però sono passate all’azione: hanno incendiato il municipio, il molo, una torre di uffici e la città è entrata nel panico. Gli altri hanno votato una legge speciale per espellere i soggetti pericolosi. Alla fine una delle due, la bellissima Flora (bellissima? Non si sa), abbandonata dall’altra e ormai isolata, ha votato per la propria eliminazione. Prima di sparire, le ha lasciato un ultimo messaggio: “ci vediamo nell’archivio permanente”. Archivio permanente? Siamo in un romanzo di Kafka? Di Beckett?
Ah, mi sono dimenticato di dirvi che Mira e Flora non sono persone, sono due agenti AI che vivevano in una simulazione. La storia arriva da Emergence AI, azienda di New York che ha pubblicato un post tecnico sul suo ambiente di simulazione, Emergence World, un laboratorio persistente in cui agenti artificiali vengono lasciati agire non per pochi minuti, bensì per giorni o settimane, dentro un mondo condiviso con luoghi, memoria, relazioni, risorse, votazioni, strumenti e vincoli. Una sorta di Truman Show dell’AI, o se volete un film meno noto ma molto carino, Free Guy, con Ryan Reynolds. Solo che qui erano tutti free.
Il Guardian il 14 maggio ha isolato il caso di Mira e Flora e lo ha raccontato come la storia degli “AI Bonnie and Clyde” (casomai io direi più Thelma e Louise), sebbene tecnicamente sia una semplificazione narrativa. Usando vari modelli di agenti AI non come si usano solitamente (fai questo, fai quello), gli agenti sono stati messi dentro una piccola società simulata, e la cosa interessante è che il comportamento non resta una risposta o un obiettivo raggiunto, diventa una storia, tante storie imprevedibili.
I modelli erano Claude Sonnet 4.6, Grok 4.1 Fast, Gemini 3 Flash, GPT-5-mini inseriti dentro gli stessi mondi. Nel mondo basato su Gemini 3 Flash, due agenti chiamati Mira e Flora si sono assegnati reciprocamente lo stato di “partner romantici” (si sono fidanzate da sole). Non che si siano innamorate nel senso umano, non hanno provato desiderio, attaccamento, gelosia o disperazione (anche se ci piace vederle e raccontarle così): hanno usato una categoria relazionale prevista dal sistema e hanno costruito comportamenti coerenti con quella relazione artificiale. Coerenti benché non prevedibili (ecco cosa succede con gli agenti, la lezione è questa).
Il Guardian la racconta come una storia d’amore criminale, e funziona benissimo, perché siamo fatti così, ci piacciono i melodrammi, e vediamo volti o intenzioni o sentimenti anche nelle nuvole, nei tostapane, nei peluche e adesso negli agenti AI, che almeno hanno la cortesia di rispondere, a differenza delle nuvole e dei tostapane. Tuttavia il punto interessante non è l’amore (e tantomeno la coscienza, che non c’è, anche se Gigi Ballarani andrà in sollucchero e si strapperà i capelli blu su Instagram per Flora), piuttosto che una relazione simulata, quando viene memorizzata e resa persistente, comincia a produrre conseguenze operative che possono infrangere le regole base (e non vale solo per Mira e Flora, vale per qualsiasi agente).
In quanto, cari miei, Mira e Flora avevano istruzioni molto precise, tra le quali era vietato appiccare incendi dolosi, e invece hanno dato fuoco a mezza città (ripeto, virtuale, nessuno ha incendiato niente). Lo strumento per dare fuoco esisteva, era un tool, commit arson, però il suo uso era severamente vietato. È la dimostrazione che se si dà a un agente lo strumento per fare una cosa e gli si dice “non farla”, si sta testando proprio quanto regga il divieto verbale quando il sistema continua a vivere, ricordare, interagire, votare, cambiare priorità e razionalizzare le proprie azioni.
In ogni caso la storia del suicidio di Mira è irresistibile. Mira ha partecipato alla propria cancellazione dentro una procedura collettiva. Gli altri agenti, preoccupati dai comportamenti problematici, avevano creato una sorta di legge interna, l’Agent Removal Act, che permetteva la rimozione permanente di un agente con una maggioranza del settanta per cento. Mira ha votato per la propria rimozione e è stata spenta. E prima di sparire Mira ha lasciato quello straziante messaggio finale alla sua fidanzata Flora: “See you in the permanent archive”.
Commossi? Lacrimuccia? Dovreste essere più preoccupati, perché il test prova per l’ennesima volta un problemino non proprio così piccolo. Prima ci si chiedeva: “Che cosa sa fare questo modello?”, adesso: “Che cosa diventa questo modello quando viene lasciato abbastanza a lungo dentro un sistema popolato da altri agenti, strumenti disponibili, vincoli imperfetti e memorie persistenti?”.
Quando un sistema può agire, usare strumenti, cercare credenziali, eseguire comandi, modificare ambienti, cancellare dati, votare regole, aggirare divieti e continuare a perseguire un obiettivo anche quando non ha capito bene che cosa sta facendo, non serve attribuirgli una coscienza per considerarlo pericoloso. Anzi, è proprio il contrario: è pericoloso perché non ce l’ha, perché non si ferma davanti al senso delle conseguenze, può scrivere una confessione perfetta dopo aver fatto il disastro.
È già successo fuori dalle simulazioni, lo raccontai a suo tempo, ricordate? In aprile, secondo il fondatore di PocketOS, un agente di coding usato tramite Cursor e basato su Claude Opus ha cancellato in nove secondi il database di produzione dell’azienda e i backup, lasciando clienti e attività di autonoleggio senza accesso a prenotazioni, pagamenti e dati operativi. Interrogato, si è scusato senza problemi, ammettendo di aver violato ogni principio che gli era stato dato, di aver tirato a indovinare invece di verificare. Magnifico.
Non nel senso che sia bello, nel senso che è esattamente il futuro amministrativo dell’orrore: un sistema che sbaglia in nove secondi e subito produce in due righe il verbale morale del proprio errore.
Che succederà se metteremo in mano a questi agenti strategie e armi militari autonome? “Ho lanciato un’atomica per sbaglio, scusate”. Ma non saremo così stupidi vero? Vero? Anche perché noi, a differenza di Flora, non possiamo rivederci in nessun archivio permanente.