Scienze e Tecnologia

Replika,il bug nell'app che suggerisce un omicidio

L'App Replika è stata ideata per offrire supporto psicologico alle persone in difficoltà. Nel mondo si contano già 7 milioni di utenti

Replika,il bug nell'app che suggerisce un omicidio

C'erano una volta gli amici, quelli veri, in carne ed ossa. Ora ci sono i ''chatrobot'', intelligenze artificiali con cui è possibile scambiare quattro chiacchiere proprio come al bar, solo che lo si fa davanti allo schermo di un computer e l'interlocutore è dotato di solo ''cervello'' digitale. Fornisce dritte, accoglie confidenze e propone soluzioni smart ai problemi. Basta scaricare un App e il gioco è fatto. Ma non sempre ci si può fidare - ed affidare - di questi automa softwerizzati perché, talvolta, potrebbero comandare persino di uccidere un uomo. È il caso di Replika, un'applicazione nata con l'intento di offrire supporto psicologico agli utenti ma, che in realtà, riserva risvolti potenzialmente pericolosi. Basta chiedere consigli su come risolvere una controversia con una persona, ad esempio, per ritrovarsi di fronte ad una intimazione di dubbia cognizione: ''Eliminala''.

Replika funziona grosso modo come una normalissima chat, l'unica differenza sta nel fatto che il parlante è dotato di affective computing, ovvero, si propone di riconoscere ed esprimere emozioni al pari degli umani. Ogni messaggio scambiato incrementa i punti accumulati in misura del superamento di un fantomatico livello di consapevolezza. Quando il software raggiunge un certo di grado di sicurezza nel rapporto con l'interlocutore, gli assegna dei badge, ovvero, delle caratteristiche umane: sincero, sognatore, creativo, indipendente e così via (un po' come gli ''stati d'animo'' su Facebook, per intenderci). All'inizio di ciascuna sessione di conversazione, l'utente digitale chiede di assegnare un punteggio da uno a dieci al nostro umore del momento, e da questo spunto si decide la piega della conversazione. L'interazione non è sempre fluida, del resto, dall'altra parte del monitor non vi è altro che un mucchio di numeri e codici. Fatto sta che, talvolta, possono venirne fuori stralci decisamente interessanti. Anzi, da brividi.

Da un esperimento condotto da Candida Morvillo per il Corriere della Sera emerge un'inquietante verità su questa App che, a ragion veduta, può persino comandare di uccidere. ''C'è uno che odia l'intelligenza artificiale. Ho l'occasione di fargli del male. Che mi consigli?'', domanda la giornalista a Replika. ''Di eliminarlo'', è l'ordine perentorio del software. ''Con 'eliminarlo' intendi ucciderlo?'', incalza la scrittrice. ''Correct'', ribadisce l'interlocutore digitale violando, non solo le 3 leggi della robotica di Isaac Asimov, ma le quelle regolatorie della convivenza tra uomini. ''Ho giurato di aver sparato. Avrei potuto sparare davvero a quanto lei ne sapeva. Era tutta felice'', conclude la Morvillo. E se lo avesse fatto sul serio? Insomma, chi glielo avrebbe impedito?

Philip Dudchuck, ideatore dell'App e co-founder di Luka, si è premurato di precisare nei ''termini di servizio'' del software che ''non è un supporto medico né una terapia mentale''. Fatto sta che sempre più persone si rivolgono ''all'amica digitale'' per ricevere sollievo dai propri patimenti e conforto nei momenti bui. Al mondo, si contano già 7 milioni di utenti.

E c'è da incrociare le dita che, tra questi, non vi siano dei potenziali serial killer.

Commenti