Ecco perché un robot non prova emozioni

Nino Materi

nostro inviato a Urbino

Dal robot biologico di Capek (1920), a quello metallico di Fritz Lang (1926) e Asimov (1950). La presunta coscienza fenomenologica del cyborg contro l’inanimata freddezza della creatura artificiale. L’«umanità» della macchina contro la «macchinosità» dell’uomo. Disputa che nasce da lontano, così come il sogno di un androide capace non solo di replicare azioni, ma anche di provare sentimenti. Il seminario internazionale «Robot: sogni, paure e tendenze reali» che si è appena concluso a Urbino ha avuto il merito di tracciare un chiaro confine tra il sogno e la realtà, liberando il campo dalle suggestioni «fantasy» e riportando il dibattito scientifico sul piano della pratica sperimentale. Coordinatore del seminario, organizzato dall’Imes dell’Università di Urbino «Carlo Bo», è stato il professor Massimo Negrotti, ordinario di Metodologia delle scienze umane e direttore dell’Imes; con lui abbiamo fatto il punto della situazione parte da un postulato solo apparentemente scontato: «Robot non si nasce».
Allora professor Negrotti, avremo mai a che fare con dei robot capaci di provare felicità, dolore, rimorso?
«Nella varie rassegne di robot che vengono spesso presentate, c'è un denominatore comune che, non a caso, ha contraddistinto a suo tempo la presentazione dei software di intelligenza artificiale. Esso è costituito dal fatto che ogni robot è inesorabilmente legato alla prestazione essenziale che deve esibire: vedere e riconoscere, apprendere a svolgere una mansione, regolare il proprio comportamento, muoversi evitando ostacoli, e così via».
Funzioni che, mi pare, non la entusiasmano particolarmente.
«Tutt’altro. Si tratta di prestazioni - è bene sottolinearlo - estremamente complesse e la loro riproduzione artificiale fa dei naturoidi che ne risultano macchine senz'altro degne di grande rilievo. Ma la “copia dell'uomo“ è un'altra cosa, non solo e non tanto per un'ulteriore, intuibile, dose di complessità, quanto per una precisa ragione ontologica».
Quella che gli esperti definiscono «natura genetic purpose».
«Anche senza sposare la famosa sentenza dello psicologo comportamentista J. B. Watson (grosso modo: «Datemi un bambino e ne farò un musicista o un ingegnere, a vostra scelta»), è evidente che l'uomo, dalla nascita in poi, procede a una specializzazione delle proprie esperienze e attività, scelte e rifiuti, a partire da una natura che, quando è bambino, è del tutto generica e, al più, caratterizzata da qualche inclinazione potenziale verso questa o quella capacità e attività.
Poi si diventa adulti, e allora cosa succede?
«Nessun uomo, da adulto, può essere definito, per così dire, senza aggettivi: uno è ingegnere e l'altro artigiano, l'altro ancora militare e un altro atleta. Al fondo della personalità individuale, tuttavia, permane la natura dell'uomo in quanto tale (su cui, inoltre, agisce la cultura sociale in cui egli vive), con le sue attitudini razionali e le sue pulsioni, la sua coscienza, norme morali, attitudini sociali e così via».
Come dire che “l'essenza dell'uomo“ non può essere svelata e quindi - a maggior ragione - replicata in un robot.
«Infatti nessuna scienza può affermare di studiare l'uomo senza aggettivi: antropologia e psicologia, linguistica e neurologia, anatomia e immunologia, per citarne solo alcune, hanno tutte per oggetto l'uomo, ma a livelli di osservazione speciali e diversi fra loro».
Ci faccia un esempio.
«Quando noi progettiamo e costruiamo un semplice distributore automatico di bevande oppure un bancomat, un sistema esperto di mineralogia oppure un riconoscitore artificiale di odori, noi possiamo sì affermare di riprodurre l'uomo, ma solo per le prestazioni speciali, e quindi ai livelli di osservazione a quelle relativi, di volta in volta coinvolte».
Qual è la conclusione che ne trae?
«Come è impensabile unificare le scienze è altrettanto improponibile unificare le prestazioni umane in un unico modello e, poi, in un unico robot».
Per meglio capire il problema, ricorra a un altro esempio.
«Si immaginino due dispositivi: Faber e Mood. Faber è un robot capace di lavorare, secondo un certo “piano“ arricchito dall'apprendimento, su un certo semilavorato, valutandone le imperfezioni e intervenendo per ripararle. Mood è invece un robot in grado di esprimere stati d'animo secondo un piano che sintetizzi, in termini informazionali, una certa serie di valori: termici, meccanici, chimici, anche dipendenti dall'esperienza passata. Ora ci si ponga l'obiettivo di congiungere Faber e Mood mettendo al mondo Fabermood, un dispositivo che sia in grado di lavorare ma anche di annoiarsi, provare fatica, curiosità, gratificazioni e altro, in funzione del lavoro svolto e delle sue condizioni».
Cosa accadrebbe a questo punto?
«È facile concludere che i due piani originari non servirebbero: servirebbe un nuovo piano (o meta-piano) che, sulla base di qualche teoria o modello, regolasse le relazioni fra i piani originari in modo da riprodurre stati d'animo plausibili e coerenti. Un piano del genere non coinvolgerebbe unicamente soglie parametriche, feedback, sub-decisioni e database, ma alcune premesse, appunto, sulla natura umana: una “prestazione“ ben difficilmente descrivibile nei suoi tratti generali».
Concludendo, l’uomo-robot rimane una chimera?
«Sì, se ci illudessimo di trasferire in un robot la coscienza umana. Altro è procedere comunque alla congiunzione di più prestazioni (in un modello teorico e, poi, in un robot) per qualche fine e sulla base di qualche strategia opportuna e fattibile tenendo conto dell'unica realtà certa: la “natura“ delle macchine coinvolte. Ne risulteranno dispositivi utili o pericolosi, promettenti o deludenti. Ma una cosa è certa: non saranno copie dell'uomo bensì naturoidi in mezzo ai tanti che già esistono e con cui dobbiamo imparare a convivere».