Hardware e software

4mila hacker contro l'intelligenza artificiale: il test della Casa Bianca

Le società sviluppatrici come OpenAI, Google e Microsoft non si sono opposte alla verifica. C'è interesse anche da parte della Casa Bianca. Al DefCon di Las Vegas 4mila hacker testeranno l'impenetrabilità delle Ai

4mila hacker contro l'intelligenza artificiale: il test della Casa Bianca

Ascolta ora: "4mila hacker contro l'intelligenza artificiale: il test della Casa Bianca"

4mila hacker contro l'intelligenza artificiale: il test della Casa Bianca

00:00 / 00:00
100 %
Tabella dei contenuti

C'è grande attesa per il DefCon che si terrà a Las Vegas il prossimo agosto: nel corso dell'evento, infatti, 4mila hacker esperti esploreranno i limiti della sicurezza informatica delle varie AI, cercando di individuare eventuali falle.

Intelligenza artificiale sul banco di prova

Sarà la prova del nove per le varie chatbot di intelligenza artificiale come ChatGpt di OpenAi, Bard di Google e le altre concorrenti di Microsoft, Nvidia, Anthropic e Stability Ai. Tutte quante verranno accuratamente testate in un crash test che evidenzierà eventuali lacune, se esistenti.

A tale scopo, infatti, le nuove Ai saranno letteralmente date in pasto a 4mila hacker scelti che avranno il preciso incarico di individuare possibili vulnerabilità. È ciò che accade, del resto, durante l'evento del DefCon, che tiene al suo centro proprio la sicurezza informatica. Il prossimo agosto, dunque, scopriremo se questi software possiedono o meno delle debolezze. Nel caso l'esito fosse positivo, le varie società informatiche avranno la possibilità di porre rimedio alle lacune.

Sono stati i tre attivisti Rummar Chowdhury, Sven Cottell e Austin Carson, rispettivamente direttrice di Humane Intelligence, fondatore dell'Ai Village di DefCon e capo della non profit SeedAi, a spingere per effettuare un vero e proprio test di prova nei confronti delle AI in occasione del DefCon 2023.

La preoccupazione dei tecnici della Casa Bianca

Alcuni test sono già stati effettuati, ma non in modo professionale. Poco tempo fa, infatti, è stato proposto ad alcuni studenti di community college di provare ad hackerare alcuni modelli di Ai, e l'esito è stato positivo.

Lo stesso è stato fatto al tech festival South by Southwest di Austin (Texas), a cui hanno partecipato anche alcuni esperti dell'Ostp, ossia Office of Science and Technology Policy della Casa Bianca. I tecnici dell'organo governativo si sono detti preoccupati per le vulnerabilità emerse. Da qui la necessità di sottoporre i nuovi software alla prova degli hacker e il via libera al crash test.

Le Big accetteranno?

Il governo americano, dunque, è pronto a far scendere in campo gli hacker. Le Big del web, però, accetteranno di sottoporre i propri prodotti a dei controlli così minuziosi, rischiando di mettere in piazza i loro segreti?

A quanto pare le varie aziende sarebbero a favore. Da OpenAI a molte altre società c'è stato l'ok a procedere con il test. Anche da parte loro, infatti, è emersa preoccupazione nei confronti di possibili rischi di uso malevolo delle loro Ai.

Persino i giganti Google e Microsoft non si sono opposti al crash test.

Commenti