Sono passati quasi dieci anni dal suo quesito etico più famoso. Il dilemma of autonomus vehicles nasce da un paradosso morale, tutti vogliono che le auto a guida autonoma prendano decisioni "etiche", ma nessuno vuole subirle. Il passeggero va sacrificato per salvare tre bambini? Certo, l'importante è che il morituro non sia io. È l'ipocrisia dell'umano. Lo incontri al Premio Lagrange della Fondazione Crt, che ha appena vinto, a Torino, e sai già che sarà davvero stimolante chiacchierare con lui. Iyad Rahwan è uno di quegli scienziati che mettono in crisi i confini. Nato ad Aleppo, cresciuto tra Australia e Stati Uniti, ora dirige a Berlino il Center for Humans and Machines del Max Planck Institute. Studia il comportamento delle macchine come se fossero nuove specie sociali e si chiede cosa resti dell'uomo quando gli algoritmi iniziano a imparare da soli. È il filosofo inquieto dell'intelligenza artificiale, l'uomo che costringe la tecnologia a guardarsi allo specchio.
C'è una "intelligenza collettiva delle macchine". Ma chi comanda davvero questo collettivo: gli algoritmi o gli esseri umani che li addestrano?
"Per ora, almeno, gli algoritmi hanno pochissima autonomia. Non fissano i propri obiettivi: rispondono soltanto a ciò che noi umani chiediamo loro di fare. Gli esseri umani che addestrano l'algoritmo, invece, hanno il potere di stabilire gli scopi dell'intelligenza meccanica. Lo fanno in diversi modi: curano i dati da cui l'Ia apprende e possono decidere se includere o escludere certe informazioni, per esempio, escludere le fake news. Inoltre, possono influenzare il comportamento dell'Ia attraverso una tecnica chiamata apprendimento per rinforzo dal feedback umano. È un po' come educare i bambini o addestrare i cani: si rinforzano i comportamenti positivi. Possiamo, per esempio, insegnare all'Ia a usare un linguaggio più cortese o a rifiutarsi di spiegare come costruire una bomba".
La macchina quindi impara, ma chi è moralmente responsabile: il maestro o l'allievo?
"Gli esseri umani, perché siamo noi a costruire e usare le macchine. Ma non è sempre facile stabilire a quale essere umano attribuire la responsabilità. Se io chiedessi a ChatGpt di generare un discorso d'odio, di chi sarebbe la colpa? Mia, per la richiesta, o di OpenAi, per aver reso possibile la risposta? In alcuni casi è ancora più difficile, se non impossibile, assegnare una responsabilità. Immaginiamo di chiedere a un'Ia di operare in Borsa al nostro posto, e che questa, di propria iniziativa, impari a manipolare il mercato per farci guadagnare di più. Chi è responsabile? Noi non le abbiamo mai chiesto di barare. Il nostro sistema legale attuale potrebbe non essere sufficiente per gestire casi del genere".
Di chi è il diritto d'autore?
"Se un essere umano scrive una poesia, crea un'opera d'arte o un'invenzione scientifica usando l'Ia, allora l'opera appartiene all'essere umano. Tuttavia, è teoricamente possibile che un giorno l'Ia produca conoscenza in modo completamente autonomo. In quel caso, spero che quella conoscenza appartenga all'intera umanità".
Quanto siamo vicini al momento in cui l'Ia diventerà un sistema di potere, non solo di calcolo?
"Ci siamo incamminati. Gli algoritmi di Ia vengono già usati per selezionare i curriculum dei candidati, valutare chi assumere, e negli Stati Uniti persino per consigliare i giudici nelle decisioni sulla libertà su cauzione. Gli algoritmi di Ia alimentano sempre più spesso droni autonomi armati e forniscono analisi tattiche in ambito militare, stimando ad esempio i danni collaterali di un attacco aereo".
L'umanità sta costruendo un nuovo cervello o un nuovo Leviatano?
"Forse entrambi. Stiamo sicuramente costruendo un nuovo tipo di mente".
L'intelligenza può esistere senza coscienza?
"Se intendiamo l'intelligenza in senso stretto, come la capacità di prendere buone decisioni, allora sì: abbiamo già esempi di intelligenza senza coscienza. Ma se parliamo di intelligenza artificiale generale (Agi), la questione è molto più complessa. Vorrei poter rispondere, ma per farlo dovremmo prima disporre di una teoria della coscienza. E al momento non c'è alcun consenso scientifico su cosa sia davvero. Tutti abbiamo un'esperienza soggettiva della coscienza, ma ci è quasi impossibile immaginare che cosa significhi essere un'altra mente".
Le macchine potranno mai sviluppare empatia o si limiteranno a imitarla meglio di noi?
"Non credo che le macchine possano sviluppare una vera empatia, nel senso umano del termine. L'empatia umana nasce dall'esperienza condivisa: sappiamo metterci nei panni degli altri perché condividiamo una condizione comune, con le sue gioie e sofferenze, paure e desideri. Le macchine possono solo imitare i comportamenti empatici, non provarli".
Quanta libertà resta davvero al lato umano?
"Un modo per garantire la cooperazione delle macchine è progettarle fin dall'inizio perché siano cooperative. Ma non sempre è possibile, soprattutto quando interagiamo con macchine appartenenti ad altri, come un'auto a guida autonoma di una compagnia di taxi o un bot che gestisce un appartamento su AirBnB. Mi interessa capire come queste macchine possano comunque cooperare con gli esseri umani. Possiamo imparare molto dalla psicologia umana e dai meccanismi che rendono possibile la cooperazione tra persone. Naturalmente si possono immaginare scenari futuri in cui le macchine diventino molto potenti. E se un giorno fossero pienamente autonome, con obiettivi propri in conflitto con quelli umani, allora sì, saremmo nei guai. La mia speranza è che la scienza ci permetta di evitare questi scenari, assicurando che l'Ia resti sempre soggetta alla volontà e agli scopi umani, anche se diventerà superintelligente".
Quando le macchine iniziano a prendere decisioni morali, chi definisce i loro parametri etici?
"Siamo sempre noi umani a definirli. Quali sono i suoi obiettivi, le sue ideologie, la sua rappresentatività rispetto al resto dell'umanità? Sappiamo che esistono principi morali universali, come uccidere è sbagliato, ma anche molte differenze culturali. Sarebbe pericoloso se un'Ia creata in una sola cultura venisse poi imposta al mondo intero".
Ogni generazione tecnologica riduce il margine d'errore. Ma non è forse l'errore ciò che ci rende umani?
"Sì, gli errori umani, gli incidenti, sono spesso alla base delle nostre più grandi innovazioni. Uno dei limiti dell'Ia è che produce nuova conoscenza imitando quella passata: tutto ciò che apprende deriva dal sapere umano. Tuttavia, può anche essere programmata per esplorare. Così l'algoritmo AlphaGo Zero di DeepMind ha scoperto da solo una strategia del tutto nuova nel gioco del Go, battendo il campione del mondo. Oggi quella strategia è adottata dagli stessi giocatori umani.
In linea di principio, quindi, l'Ia può aiutarci ad ampliare il sapere. Se riuscissimo ad applicare questo approccio oltre i giochi, l'Ia potrebbe accelerare enormemente la scoperta scientifica, anche quella frutto del caso. Serendipity".