Scienze e Tecnologia

Microsoft spegne l'intelligenza artificiale che inneggiava a Hitler

La "chatbot" è stata immessa nella rete senza alcun controllo. Sedici ore dopo il suo lancio e 23.000 seguaci, Tay ha iniziato a rispondere con post che inneggiavano al razzismo politico

Microsoft spegne l'intelligenza artificiale che inneggiava a Hitler

Sono bastate sedici ore per trasformare in razzista l'intelligenza artificiale lanciata da Microsoft e dal team di Bing su Twitter. Poco meno di 24 ore fa, la società di Redmond ha lanciato un account Twitter gestito da “Tay”, IA che avrebbe dovuto apprendere dai contenuti lasciati dagli utenti, sviluppando un linguaggio sempre più naturale ed intelligente. Tay, indirizzata ad un pubblico dai 18 ai 24 anni, nasceva con l’obiettivo di simulare una conversazione intelligente con gli utenti, sperimentando la comprensione del linguaggio. La "chatbot" è stata immessa nella rete senza alcuna guida esterna, tra i 350 milioni di account Twitter attivi. Sedici ore dopo il suo lancio e 23.000 seguaci, Tay ha iniziato a rispondere con post che inneggiavano al razzismo politico. Frasi tipo "Hitler aveva ragione" o "l’undici settembre è stato organizzato dai servizi segreti americani", hanno spinto i programmatori di Microsoft a mettere offline l’IA.

Tay, nella maggior parte dei casi, si è limitata soltanto a ripetere le frasi degli altri utenti, ma l’IA ha comunque appreso dalle interazioni, fornendo risposte con le parole chiave corrispondenti. Spiegano da Microsoft:

“Il database primario di Tay si basa precisi input elaborati da uno staff, ma spetta all’intelligenza artificiale comprendere il dialogo ed impostare le opportune risposte”.

Le sue conversazioni su Twitter hanno finora rafforzato la cosiddetta legge di Godwin, secondo cui “mano a mano che una discussione su Usenet si allunga, la probabilità di un paragone riguardante i nazisti o Hitler si avvicina ad 1”. Dopo sedici ore di conversazioni, Tay ha annunciato che era giunto il momento di dormire. Pochi secondi dopo è stata messa offline dalla Microsoft. I tweet razzisti di Tay sono stati cancellati.

Commenti