F ermate Terminator prima che sia troppo tardi. C'è qualcosa di tragicamente faustiano nell'appello che molti scienziati e fabbricanti di intelligenze artificiali hanno indirizzato all'Onu perché fermi l'avanzata dell'armata dei robot, che rischiano di trasformare in futuro le guerre in qualcosa che sfugge al controllo dell'uomo più ancora di quanto non accada ora.
«Una volta che il vaso di Pandora sarà aperto sarà impossibile richiuderlo», scrivono lirici e angosciati in una lettera diretta al palazzo di Vetro i 116 leader della robotica mondiale, tra cui l'illuminato imprenditore sudafrican-americano Elon Musk, patròn di Tesla, e Mustafa Suleyman, cofondatore di DeepMind, la branca di Google dedicata all'intelligenza artificiale. Secondo Musk, Suleyman e gli altri supernerd sviluppare le armi letali autonome sarebbe un «errore morale» dei governi, che porterebbe «i conflitti armati a essere combattuti su una scala mai vista e in una prospettiva troppo veloce per essere compresa dagli umani».
Fermare il Golem dopo averlo creato con un cumulo di argilla è quasi impossibile. E pare sospesa tra utopia e cattiva coscienza la speranza pacifista dei cento e passa scienziati che sognano un mondo di soli robot buoni, che siano al nostro servizio e non ci lancino bombe come noccioline all'ora dell'aperitivo. Ma i robot da combattimento sono già una realtà e secondo molti esperti nel giro di quindici anni sostituiranno le armate tradizionali. Addirittura entro il 2025 le forze armate Usa potrebbero avere sui campi di battaglia più cyborg che umani in carni e ossa. L'esercito russo ha sviluppato un umanoide (nome in codice Fedor) in grado di sparare con precisione angosciante, muoversi sul campo, guidare, far riparazioni e senza chiedere di andare in licenza da un qualche tipo di moglie chiamata Olga. Gli israeliani, che in termini militari qualcosina contano, progettano di affiancare le unità di fanteria con robot cingolati sperimentali capaci di trasportare fino a mezza tonnellata di munizioni e rifornimenti e di muoversi su terreni accidentati. Frankenstein bussa alla porta armato fino ai denti, e poco importa che lo scienziato che l'ha creato non voglia aprirla.
Ma che cosa terrorizza gli esperti di intelligenza artificiale del robot con le stellette? In fondo non è meglio se a fare la guerra e a rischiare di morire sono umanoidi senza il soffio dell'anima? No, non è esattamente così. E questo per vari motivi. Innanzitutto proprio la fungibilità e il costo soltanto economico del soldato-robot potrebbero incentivare l'azione militare, rendendo paradossalmente più frequenti le guerre. Guerre che comunque sarebbero condotte contro popolazioni umane, perché un derby tra cyborg non avrebbe semplicemente senso: la guerra infatti è temuta da che mondo è mondo proprio perché provoca morte e distruzione. Se non ci fosse il rischio di perdere qualcosa di prezioso mancherebbe quell'effetto dissuasorio che rende la guerra un'attività estrema. È un po' quello che capita all'Occidente che fronteggia il terrorismo islamico: i giovani kamikaze a cui non importa di morire sono un nemico imbattibile perché non rispettano le regola numero uno del sistema sanzionatorio su cui si basa la nostra cultura democratica, il timore di morire. Un robot o un diciassettenne di origini marocchine che brama il martirio sono lo stesso tipo di nemico: quello di cui non possediamo la mappa mentale.
E poi i robot soldati, programmati per prendere decisioni autonome grazie a reti neurali che riproducono il funzionamento probabilistico del nostro cervello, sarebbero fondamentalmente imprevedibili e privi di quei sentimenti che riscattano noi uomini anche dentro una sporca guerra.
Il destino dell'uomo sarebbe nella testa-non-testa di qualcosa da noi stesso creato. E questo nemmeno il dottor Frankenstein può accettarlo. Ora i 116 «robottari» chiedono all'Onu una moratoria su queste particolari armi. I robot li preferiamo quando ci aspirano le molliche dal tappeto.
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.