Essere o non essere bot? La domanda amletica aggiornata all’era moderna è quantomeno sempre più attuale. Vivere il mondo virtuale vuol dire anche non sapere se ci si sta confrontando con qualcuno in carne ed ossa piuttosto che con un algoritmo. Ed è per questo che insomma che arriva in Italia Orb, un dispositivo creato da Tools for Humanity con l’obbiettivo di costruire un’infrastruttura di identità digitale globale che permetta di dimostrare online di essere persone vere e uniche. Proteggendo al massimo la privacy degli utenti.
Ecco dunque il primo store a Roma, che segna l’inizio di una fase di test con integrazioni a servizi consumer e un punto esclamativo su sicurezza, design e uso responsabile dell’intelligenza artificiale. Così come racconta Adrian Ludwig, Chief Architect e Chief Information Security Officer di Tools dell’azienda che ha sviluppato l’infrastruttura World utilizzabile in molti contesti diversi, dai social network ai servizi finanziari. Con la World App come porta per entrare nel futuro in sicurezza.
Partiamo dal nome: “Tools for Humanity”. Cosa significa per voi e che cosa significa per noi?
“Partiamo dal contesto generale. Quello di Roma è l’inizio di un percorso di espansione che abbiamo già fatto in decine di altri Paesi nel mondo. E per noi l’obiettivo è offrire un’infrastruttura che permetta di dimostrare in modo sicuro che si è esseri umani reali e unici per poter interagire online con più fiducia. Cosa che, appunto, sta diventando indispensabile un per noi tutti”.
Per arrivare a questo ecco l’Orb.
“E’ il centro dell’infrastruttura: si tratta di una camera che scatta una serie di immagini del volto, le analizza per verificare che si tratti di un essere umano reale – in tre dimensioni, caldo, con tutte le caratteristiche tipiche a – e poi acquisisce un’immagine ravvicinata dell’occhio per confermare che quell’utente è unico all’interno del sistema. Da questo processo nasce una credenziale digitale che può essere usato per interagire con vari servizi”.
Per esempio?
“L’idea è che si tratti di un protocollo aperto. Chiunque sviluppi un’applicazione web o blockchain può integrare questa prova di umanità. I casi d’uso nel mondo vanno dagli incontri online all’acquisto di biglietti per eventi dal vivo – dove c’è molta frode – fino ai servizi finanziari, al gaming, alla protezione da frodi e abusi sui social network. Abbiamo già decine di milioni di utenti nel mondo”.

D: Perché in Italia avete deciso di iniziare da Roma?
“Pr un motivo pragmatico: è lì che abbiamo trovato lo spazio giusto e ci è sembrato un buon punto di partenza. È vero che spesso le aziende internazionali arrivano prima a Milano, ma nella Capitale c’è stata la prima opportunità concreta per aprire uno store fisico”.
In che cosa il vostro sistema è unico?
“Ci sono due aspetti: capire se dall’altra parte c’è un essere umano, e capire se quell’umano è sempre la stessa persona. Noi lavoriamo soprattutto su questo secondo punto e, per dire, abbiamo già realizzato un’integrazione con soluzioni di videoconferenza: è possibile verificare che l’immagine che si vede sullo schermo corrisponda davvero alla persona che si sta rappresentando. E quindi che si tratti dell’individuo che afferma di essere”.
Lotta ai deepfake, dunque.
“Sì, anche se il nostro focus non è riconoscere l’intelligenza artificiale in sé. Noi confermiamo che l’immagine associata a una credenziale corrisponde alla persona reale. E’ un approccio diverso: invece di inseguire ogni nuova tecnica di falsificazione, ci concentriamo sul dimostrare che una certa identità è vera”
Un processo al contrario.
“Da un punto di vista matematico stabilire una verità positiva è più semplice che cercare di dimostrare che ogni possibile contraffazione è falsa. Con l’evoluzione dell’IA, rilevare i contenuti artificiali diventerà sempre più difficile. Mentre dimostrare che sei “tu” resta affidabile se l’architettura è progettata bene: costruiamo quello che nella sicurezza si chiama “root of trust”, una radice di fiducia”.
L’Orb insomma è una sorta di angelo custode.
“Tramite la sua camera portiamo nel sistema informazioni dal mondo, trasformandole in modo provabile per usarle online. Questo approccio in passato è stato difficile per due motivi: da un lato la mancanza di dispositivi in grado di raccogliere dati biometrici in modo accessibile, dall’altro il fatto che le credenziali tradizionali sono estremamente invasive”.
E qui entra in campo la protezione dei dati.
“Pensiamo al passaporto: è legato ai viaggi, ai servizi governativi, a nome, indirizzo, luogo di nascita e così via. È un documento che concentra moltissime informazioni e non è adatto a essere presentato a ogni sito o applicazione online. Per questo ci siamo concentrati molto sulla privacy. L’Orb non conosce il tuo nome, non sa dove ti trovi, non conosce la tua età: verifica che tu sia umano e poi ti rilascia una credenziale. Il modo in cui questa credenziale viene usata nei servizi World non rivela altro se non il fatto che sei un essere umano”.
Come fate a garantire che i dati biometrici non vengano riutilizzati o collegati a servizi terzi?
“Tutte le prove che vengono generate senza trasmettere dati aggiuntivi sull’utente: non forniamo l’età a Deliveroo o a Uber, semplicemente perché non la conosciamo. Inoltre abbiamo progettato il sistema in modo che neppure World, come infrastruttura, trattenga dati biometrici riutilizzabili. L’Orb non conserva nulla una volta finito il lavoro”.
Proprio nulla?
“L’unica informazione che resta nel sistema è la capacità di verificare che si tratti di un’istanza unica di registrazione. Anche questo dato, però, è frammentato e protetto in modo che nessun soggetto singolo, in nessuna parte del mondo, possa controllare da solo se un certo individuo possiede una World ID. Solo l’utente può decidere di dimostrare la propria identità in un contesto specifico”.
Orb è anche un bell’oggetto: il design aiuta le persone a fidarsi di più?
“Direi di no, non in modo “comodamente rassicurante”. Uno degli obiettivi del design era proprio il contrario: stimolare domande. Volevamo che le persone si fermassero a riflettere sull’azione che stanno compiendo: come viene stabilita la loro identità online? Che cosa implica per la loro privacy? Il design serve a suscitare conversazione e consapevolezza. Nel lungo periodo, penso che questa tecnologia sarà integrata direttamente nei laptop e negli smartphone, ma oggi un oggetto così riconoscibile aiuta ad aprire un dibattito”.
Oggi si parla anche molto di agenti IA personalizzati: è questa la strada?
“Sì, e credo che la possibilità per le persone di conservare e gestire i propri dati in locale stia diventando concreta grazie ai chip degli smartphone sempre più potenti. Il nostro protocollo World è progettato proprio in questo senso: la generazione delle prove avviene sul device dell’utente”.
L’Italia è pronta per questo?
“Abbiamo svolto sondaggi e raccolto dati: gli utenti vedono frodi nel dating online, abusi sui social network, truffe legate ai pagamenti. C’è un forte interesse per soluzioni che affrontino questi problemi ma ancora non ne esiste una unica per tutti i servizi: proprio il motivo per cui partiamo con una fase di test. Il sistema come detto è aperto, ma gli sviluppatori devono comunque prima registrarsi con l’Orb”.
Quali sono gli incentivi concreti per chi si registra?
“Per il lancio italiano abbiamo previsto una serie di benefit per chi si iscrive, fra cui accesso agevolato o privilegi elevati su servizi consumer molto popolari come Uber, Deliveroo e altre piattaforme partner. In più c’è una criptovaluta legata al sistema che distribuisce la proprietà tra gli utenti. L’idea è rendere tangibile il valore di una prova di umanità affidabile: maggiore sicurezza per i servizi, ma anche vantaggi concreti”.
Il futuro è dei robot?
“Non vedo l’Orb trasformarsi in un automa senziente che va a spasso da solo. Piuttosto, la sfida sarà assicurarci che questi dispositivi siano in grado di distinguere correttamente gli esseri umani dai robot e dalle forme di intelligenza artificiale sempre più sofisticate, man mano che queste evolveranno. Ma parliamo di uno scenario abbastanza lontano nel tempo”.
Eppure l’IA evolve vertiginosamente: è preoccupato?
“Il mio background è nella sicurezza e nella gestione del rischio, quindi per natura tendo a preoccuparmi di tutto. Detto questo, penso che l’IA sia effettivamente unica per velocità di evoluzione, capacità e potenziale: non ho motivi per credere che il bilancio rischi/benefici sia necessariamente negativo, ma l’impatto complessivo sarà enorme, nel bene e nel male. E richiede una discussione seria a livello sociale”.
E riguardo alle regole?
“L’Europa sta spingendo molto su questo, ma in alcuni casi è davvero difficile conciliare obiettivi diversi.