Biotecnologie, robot, Dna i dilemmi dell'"etica 3.0"

Luciano Floridi indaga la nuova morale dell'Intelligenza artificiale. Matteo Galletti riflette sulla "pillola della bontà"

Biotecnologie, robot, Dna i dilemmi dell'"etica 3.0"

Immaginiamo un supercomputer in grado di anticipare i comportamenti gravemente immorali di noi umani e capace di intervenire per tempo, per far cambiare idea a chi stia per compiere quegli atti... Insomma, una macchina che impedisca agli uomini di compiere il male, fermando le azioni immorali. Esiste? Non proprio, però ha un nome: God machine. È stata concepita da Ingmar Persson e Julian Savulescu, ma non è un computer, bensì uno «scenario filosofico». I due signori sono filosofi, non esperti di Intelligenza artificiale. Eppure la questione, che riguarda il nostro futuro fra robot, viaggi spaziali, interconnessioni, città sempre più smart, internet delle cose, biomedicina, digitalizzazione, fecondazione assistita, editing del genoma, automazione e (chissà) immortalità, è proprio filosofica, ovvero: quale domande ci pone la realtà, sempre più tecnologica, sul piano dell'etica? Come ci dobbiamo comportare noi, gli scienziati e, anche, i prodotti di questa innovazione, per esempio l'Intelligenza artificiale?

Eh sì, perché ciò che caratterizza l'Ia, come nota Luciano Floridi, professore di Filosofia ed Etica dell'Informazione all'Università di Oxford, che dell'argomento è uno dei massimi esperti, è proprio il fatto che l'intelligenza non conti: essa è infatti «una nuova forma dell'agire, che può avere successo senza essere intelligente», spiega nel suo nuovo saggio Etica dell'intelligenza artificiale (Raffaello Cortina Editore, pagg. 384, euro 26). In questo «divorzio» fra intelligenza e capacità di agire consiste la chiave del suo successo, dei suoi sviluppi futuri e, anche, delle innumerevoli possibilità, positive e negative, che si aprono per tutti, intesi come noi umani.

Di qui, anche, la necessità di un'etica nuova, un'«etica 3.0» potremmo dire, con un linguaggio da Silicon Valley, che coglie un punto: bisogna aggiornare qualcosa, nella nostra prospettiva, per riuscire a rispondere alle domande che i prossimi anni di progresso (anche se c'è chi non lo considera tale) ci riserveranno. È quello che cerca di fare, per esempio, la nuova collana ideata da Fandango, intitolata «Icaro», i cui primi due titoli sono dedicati all'editing genetico (domanda: «È giusto scegliere il patrimonio genetico di un futuro bambino?»; risponde Maurizio Balistreri in Il bambino migliore?) e al potenziamento morale, ovvero alla questione se «le tecnologie possano aiutarci a essere migliori». È Matteo Galletti, professore di Bioetica all'Università di Firenze, a cercare di districare i problemi legati alla Pillola per diventare buoni (Fandango, pagg. 128, euro 12): è proprio dal suo saggio che è tratto l'esempio iniziale della God machine. Una forma «estrema» di Ia, che arriva a interferire con il nostro agire.

Il fatto è che tutte queste opportunità offerte dalla tecnologia rendono la nostra un'epoca di «privilegio», «ma il privilegio ha anche un costo: l'incertezza» dice Floridi, al telefono da Oxford. E allora, «di fronte a queste innovazioni e possibilità non possiamo fare affidamento sulla lezione del passato, e applicarla semplicemente al presente; non perché sia sbagliata, ma perché non è più adeguata: è come se stessimo scrivendo un libro e, dopo il primo capitolo, ci trovassimo a lavorare al secondo. Non potrà essere identico al precedente...». Per esempio, sui rischi legati alle «cattive pratiche» dell'Ia, Floridi spiega: «Basti pensare alla paura che abbiamo per il furto dell'identità digitale che, con i sistemi di Ia, è diventato una operazione industriale: tutti i crimini digitali possono essere facilitati o potenziati dall'Ia, allo stesso modo in cui essa potenzia, nel bene, ciò che riguarda la nostra salute, le informazioni, le comunicazioni, la scuola, l'industria».

I rischi maggiori all'orizzonte, secondo Floridi, sono due (ma nel suo Etica dell'intelligenza artificiale ne potrete trovare moltissimi altri, alcuni davvero inquietanti): «Uno, classico, è la cattiva gestione dell'Ia e il possibile pregiudizio che genera quando, fatta esercitare su banche dati che contengono elementi di possibile discriminazione, applica quei dati e, quindi, la discriminazione, in modo sistematico: per esempio, quando viene negato il mutuo in banca, e si viene discriminati da un sistema artificiale, senza possibilità di appello». Poi c'è un altro pericolo: «Sul lungo periodo essa corrode l'autonomia delle persone: mi abituo a fare gestire dall'Ia tante cose quotidiane, a farmi aiutare nel prendere decisioni, a seguirne le raccomandazioni e, alla fine, mi trovo ad aver letto solo certe cose, ad aver ascoltato solo certa musica e, magari, ad aver scelto una scuola, e una carriera, in seguito a un test basato sull'Ia...». Una «trappola», in cui la nostra vita viene «determinata da un sistema che intelligente non è».

E se questo sistema o, comunque, una tecnologia potesse influire sul nostro carattere e le nostre azioni? La pillola per diventare buoni del saggio di Galletti ricorda subito il trattamento «scelto» da Alex, il protagonista di Arancia meccanica, per abbandonare la violenza; e, se il potenziamento «biomorale» è ancora di là da venire, è anche vero che studi e sperimentazioni sono stati fatti, almeno su alcuni farmaci. La premessa del «potenziamento» è appunto - spiega Galletti - che «la morale abbia basi biologiche»; quanto agli interventi possibili, gli scenari sono tre: «Primo, l'editing genomico, ovvero un intervento su parti del patrimonio genetico, connesse a certi comportamenti. È il più fantascientifico, al momento. Poi ci sono altri studi sulla stimolazione cerebrale. Infine, le sperimentazioni, alcune già avvenute, su farmaci tradizionali che, utilizzati su pazienti sani, hanno prodotto dei cambiamenti nel loro comportamento».

Per esempio, in termini di comportamenti «prosociali» e di maggiore fiducia e, anche, nel prevenire alcuni pregiudizi, come quello razzista. Le incognite e le sfide - anche «inquietanti», sottolinea Galletti - sono moltissime: «Sia il potenziamento, sia un eventuale uso obbligatorio di questi farmaci potrebbero violare la libertà dell'individuo. E non è neanche detto che il loro uso su larga scala sia sufficiente per creare i grandi cambiamenti morali di cui la nostra epoca avrebbe bisogno». Non solo: un «potenziamento» è un vero «miglioramento» morale? Galletti è dubbioso: «Si potrebbe potenziare la capacità dell'individuo, il quale, per esempio, potrebbe comportarsi in modo meno razzista, senza però avere la certezza che l'individuo sia moralmente meglio di prima, cioè che egli sia, davvero, meno razzista». Un altro rischio è poi il «conformismo morale»: «Deve sempre rimanere uno spazio per contestare lo standard, altrimenti il potenziamento è un livellamento».

A rischio, come nel caso dell'Ia, c'è sempre il nostro essere: autonomia, libertà, intelligenza. L'identità, anche nel mondo onlife, come lo chiama Floridi. Il professore di Oxford insiste sui numerosi aspetti positivi dell'Ia, che la rendono «una forza buona»; ma, dice anche, abbiamo «una grande responsabilità verso la società dell'informazione del futuro», verso i valori, e il mondo, che lasceremo. E allora, qual è il «come se» kantiano dell'etica 3.0? «Dobbiamo agire come se l'Ia fosse una nuova capacità di agire che si affianca a quella animale e umana e che deve essere al servizio dell'umano, sempre, e non viceversa - conclude Floridi - E allora potremo stare tranquilli...».

Commenti