Ultim'ora
Francia, nominato il centrista François Bayrou come nuovo premier
Ultim'ora
Francia, nominato il centrista François Bayrou come nuovo premier

«I robot una minaccia? Forse, ma non potranno mai pensare come noi»

L'imprenditore: «Un automa non può fare scelte etiche. Dipende tutto dai dati che gli diamo»

Bryce Goodman è imprenditore e fondatore start-up esperto in etica, innovazione e imprenditorialità. Lavora presso l'unità sperimentale di innovazione del Dipartimento della Difesa Usa dove supervisiona progetti su intelligenza artificiale, apprendimento automatico e Internet delle cose. È anche un consulente indipendente sulla politica AI per Google.

1 Assolutamente sì. La tecnologia avanza così rapidamente che le nostre capacità tecnologiche possono benissimo superare le nostre capacità morali. Ma questo non è necessariamente un nuovo dilemma sul futuro: abbiamo incontrato qualcosa di simile con l'avvento delle armi nucleari. Per la prima volta gli esseri umani avrebbero potuto distruggere il mondo con la semplice pressione di un pulsante. L'intelligenza artificiale non rappresenta lo stesso tipo di minaccia, ma una minaccia diversa: è possibile trasferire decisioni importanti a sistemi che non si comportano come esseri umani.

2 I governi devono accettare che il progresso sarà sempre accompagnato da una dose di fallimento. Senza leggi che consentano agli imprenditori di fallire, non ci saranno più tanti imprenditori disposti a rischiare. I governi devono anche investire massicciamente nell'istruzione, a tutti i livelli. E soprattutto devono acquisire un'alfabetizzazione tecnologica: quando persone che non sanno nulla di tecnologia cercano di regolamentarla, la situazione diventa pericolosa.

3 Viviamo già in un oligopolio, però non sono sicuro che questo sia diverso da qualsiasi altro già vissuto in passato. Il fatto che le società tecnologiche siano la potenza principale può sembrare diverso, ma si pensi per esempio alle società finanziarie, oppure a quelle petrolifere o del gas. E prima di esse alle società ferroviarie. Penso che tutto questo faccia parte della natura del capitalismo.

4 Penso che le persone siano inclini a sopravvalutare ciò che accadrà nel breve termine, ma sottovalutino ciò che potrebbe accadere nel lungo termine. La nazionalità è un'identità, non una forma di governo. Le linee che delimitano quell'identità stanno cambiando e la tecnologia sta aiutando questo cambiamento: il fatto che io possa facilmente volare da un Paese all'altro o portare il mio lavoro dove vado, cambia il mio legame con un luogo specifico e quindi ha un impatto sulla mia identità. Ma io sono uno dei fortunati ad essere in questa posizione, mentre penso ancora che questo non sia ancora possibile per la maggior parte delle persone. Che continuano ad avere un lavoro legato a livello locale. E dunque conservano un concetto di appartenenza.

5 L'intelligenza artificiale prende decisioni costruendo un modello di realtà e questo modello si basa sui dati che noi umani forniamo. Quindi, quando chiediamo ad AI di prendere decisioni sul futuro, è per definizione uscire da ciò che «sa». In questo modo non è diversa dall'uomo: la differenza può essere che un cervello artificiale può ingerire molte più informazioni e mantenere quel «presente» quando si fa una previsione futura. Ma questo non significa necessariamente che le decisioni siano migliori: se i dati o il modello sono cattivi, anche le decisioni saranno anche cattive.

6 Le auto che si guidano da sole non «riconoscono» la realtà come può farlo una persona. Ci sono un sacco di sistemi in grado di rilevare gli oggetti e pianificare di evitarli, ma non bisogna confondere questo con la coscienza. Un aereo che può atterrare da solo non è cosciente. Allo stesso modo, quando pensiamo a decisioni etiche, dobbiamo chiederci come gioca la coscienza. Una macchina senza coscienza può prendere decisioni etiche? Probabilmente no. Ma può sicuramente prendere decisioni che hanno conseguenze etiche.

7 Le armi autonome potrebbero certamente essere pericolose se spingessero i Paesi ad essere più disposti a impegnarsi in una guerra. O se si comportassero in modo imprevedibile.

8 Non credo che vogliamo essere «dominati» dalla tecnologia. Non credo che la tecnologia cambi davvero ciò che conta nella vita: le nostre connessioni tra di noi e il mondo che ci circonda, il nostro senso di scopo, la bellezza e la compassione.

Nella misura in cui la tecnologia consente e preserva tali connessioni, è una buona cosa. Se li distrugge o le inibisce, è negativo. La tecnologia farà sempre entrambe le cose perché il mondo è troppo complesso per poterne realizzare una sola.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica