Perché lo scontro tra Anthropic e il Pentagono si sta facendo sempre più teso? Il Pentagono vuole che la società famosa per il chatbot "Claude" metta a disposizione del ministero della difesa USA la sua IA senza limiti etici per integrarla nei sistemi di difesa. Il nodo del dissidio è dovuto al fatto che Anthropic chiede garanzie e cautele sull'impiego dei suoi modelli in azioni sul campo e nei progetti di sorveglianza di massa.
La società, attraverso il suo CEO Dario Amodei, oggi ha rigettato l'ultimatum della difesa: "In una serie ristretta di casi, crediamo che l'IA possa minare, piuttosto che difendere, i valori democratici". Nella nota la società ribadisce l'importanza dell'uso dell'IA "per difendere gli Stati Uniti e le altre democrazie, e per sconfiggere i nostri avversari autocratici".
Da una parte il ragionamento del governo americano è comprensibile perché come ricorda un vecchio proverbio "in amore e in guerra tutto è concesso". Il problema è che di amore al mondo oggi se ne vede sempre meno mentre il rischio di conflitto è sempre in aumento. E qui entra in gioco un concetto importante: quello del rischio. Basta vivere in Occidente per rendersi conto che gli strumenti che utilizziamo tutti i giorni per valutare il rischio lavorativo in un'azienda possono portare allo sconforto se, per un attimo, decidiamo di applicarli alla situazione globale. Una situazione ricca di pericoli potenziali che rappresentano un impatto verificabile (crisi economiche, conflitti locali, guerre su larga scala fino alla possibilità di conflitti nucleari). A fianco a questi ci sono i rischi che rappresentano la probabilità che questi danni possano realizzarsi.
Il nodo dell'intelligenza artificiale si innesta in una realtà che, a seguito della tecnologia e dell'incapacità delle élite di far fronte ai cambiamenti, ha aumentato sia i pericoli sia i rischi. L'intelligenza artificiale in campo bellico se è senza morale può indurre un'accelerazione inquietante di questa tendenza in una realtà occidentale caratterizzata da declino demografico, debito crescente, perdita di fiducia e polarizzazione politica.
La cosa importante è che ci sia un'azienda che non "pagherebbe per vendersi" e ponga sul tavolo la questione etica. Perché oggi il nostro sistema non crolla solo per interdipendenza. In sostanza è una nave grande che non va a fondo perché è legata ad altre più piccole. Ma i nostri fondamentali sono inefficaci sotto il profilo dello sviluppo umano. Non costruiamo fiducia nelle istituzioni, diminuiamo la mobilità sociale, non c'è stabilità economica né familiare. Siamo in balia di un consumismo estrattivo che distrugge il patrimonio umano che esiste senza crearne di nuovo. Sarebbe utile affrontare il tema etico e utilizzare l'IA per diminuire rischi e pericoli attuando i correttivi possibili.
Di rischi e di pericoli ce ne saranno sempre ma oggi quello che è in crisi è il
soggetto in grado di assorbirne l'impatto. Un soggetto che non muore ma non vive e che ha bisogno di ritrovare una direzione e ripensare alla leadership. Perché più di una coscienza di classe serve una classe di coscienza.