Leggi il settimanale

Dieci cose da sapere su Davos 2026, tra AI, potere e futuro inquieto

La prima donna e protagonista assoluta era lei, l’Intelligenza Artificiale. Dieci punti per poterne parlare con gli amici anche se non l’avete seguito

Dieci cose da sapere su Davos 2026, tra AI, potere e futuro inquieto

Il World Economic Forum 2026 si è svolto a Davos-Klosters, in Svizzera, dal 19 gennaio fino a oggi, riunendo capi di Stato, leader economici e amministratori delegati delle principali Big Tech. Va da sé che la prima donna e protagonista assoluta era lei, l’Intelligenza Artificiale. Dieci punti per poterne parlare con gli amici anche se non l’avete seguito.

1) A Davos l’AI viene ormai trattata come una tecnologia di base, qualcosa che deve entrare nei processi reali e produrre risultati misurabili, ed è insieme un’urgenza e una voce di bilancio che comincia a pesare senza produrre utili, almeno per ora. Come ha detto Satya Nadella, amministratore delegato di Microsoft: “L’AI sta diventando una tecnologia di uso generale, e la vera questione ora è quanto velocemente le aziende riusciranno ad assorbirla nelle operazioni reali.” Detto in parole povere: il tempo stringe, i costi sono di centinaia di miliardi, i ricavi pochi. Tuttavia Microsoft se lo può permettere.

2) L’impatto dell’AI non riguarda un futuro lontano, ma ruoli di ingresso, mansioni cognitive standardizzate, lavori amministrativi, e la trasformazione, dicono, è già visibile e selettiva (insomma). Secondo Dario Amodei, amministratore delegato di Anthropic: “I primi lavori a essere impattati non saranno ruoli teorici di domani, ma il lavoro cognitivo entry-level che esiste già oggi.” Si parla molto di reinventarsi, e detta così suona benissimo finché non devi farlo davvero. Perché a cinquant’anni, o a sessanta (ma anche a quaranta), in cosa ti reinventi, in un tostapane?

3) A Davos nessuno discute più se esista una competizione tecnologica globale, si tratta di una guerra fredda digitale dichiarata tra Stati Uniti e Cina, e vincerla è strategicamente fondamentale, il che significa che nessuno si fermerà. Solo che, mentre nella corsa allo spazio tra USA e URSS non c’erano rischi sistemici, qui i rischi economici sono quelli di travolgere l’economia mondiale, basta che gli investitori smettano di crederci. Non a caso la narrazione è tutta orientata sulla necessità e sull’inevitabilità, con contorno di promesse per giustificare le spese.

4) Tant’è che il punto centrale emerso è che il problema enorme dell’AI non è solo tecnologico, è economico. I modelli contano, certo, però contano di più i chip, l’energia, i data center, le filiere che li rendono possibili, e le famose terre rare (nessuno ha nominato la Groenlandia). Come ha sintetizzato Jensen Huang, amministratore delegato di Nvidia: “Senza chip avanzati, l’intelligenza artificiale semplicemente non scala. Tutto il resto è secondario.” L’AI cresce su infrastrutture carissime, concentrate in poche mani (quelle di chi parlava a Davos), con ritorni ancora incerti. Perché di fatto, a parte le chiacchiere che scambiamo con Gemini, ChatGPT o Claude, la scommessa vera è se saranno mai abbastanza sicure da essere adottate dalle imprese senza fare danni.

5) A Davos si è parlato di responsabilità, di incidenti da evitare, di danni da contenere, eccetera eccetera. Secondo Brad Smith, presidente di Microsoft: “La sicurezza dell’AI deve essere affrontata come ogni altro rischio industriale: misurata, verificata e governata.” Qui il punto interessante è anche un altro: governata da chi?

6) Anche perché il consenso sulla regolamentazione è totale, nessuno dei big dice lasciatemi fare come cavolo voglio. Tutti dicono che servono limiti e interventi pubblici, eppure nessuno vuole muoversi per primo (anche perché non può, in una gara ci vuole qualcuno che la fermi). Kristalina Georgieva, direttrice del Fondo Monetario Internazionale, lo ha detto senza giri di parole: “Tutti concordano sulla necessità di regole, ma il coordinamento resta la parte più difficile.” In questo scenario spicca la posizione di Sam Altman, il mio amato Sam, il mio preferito, anche perché mi fa tenerezza, che chiede apertamente una regolamentazione e è anche quello più esposto. Come partner principale ha Microsoft, che non è poco, e però se Microsoft dovesse mollare OpenAI è la più fragile. E poi c’è l’elefante nella stanza: come si regolamenta un’industria strategica di questo tipo? Con le leggi che invoca Altman? E ammesso di limitarla (come fa l’Unione Europea che essendo fuori dalla partita può permettersi solo di mettere paletti) chi limiterebbe la Cina?

7) Per la prima volta il termine bolla è entrato nelle conversazioni senza imbarazzo, tra poco gli spunteranno anche le bolle sulla faccia. Se ne rendono conto benissimo. D’altra parte non serve una laurea in economia: valutazioni altissime, ricavi ancora incerti, promesse che potrebbero non reggere, e un incastro tra Big Tech che rischia un effetto domino. Secondo un analista finanziario presente al forum: “C’è una crescente preoccupazione che le valutazioni dell’AI stiano correndo molto più avanti dei ricavi.” Ma va?

8) Il cambiamento climatico non è scomparso dall’agenda, ha perso centralità (per la cronaca: non c’era Greta Thunberg con un cartello). L’AI ha preso quel posto. Come è stato osservato più volte: “Il clima resta nell’agenda, ma l’intelligenza artificiale è diventata il vero centro dell’attenzione.” Qui il paradosso è evidente: mentre il pianeta si surriscalda e non sappiamo come raffreddarlo, la preoccupazione è raffreddare i data center (a parte Musk che ha l’idea di bombardare i poli di Marte per raffreddarlo e trasferirci lì, come no). I cinesi i datacenter li hanno messi sott’acqua per risparmiare, c’è chi pensa di mandarli in orbita (ipotesi poco economica e poco funzionale) e… infilarli nel ghiaccio della Groenlandia? Ah no, la Groenlandia era tabù, giustamente. Anzi, Elon Musk ha fatto anche un discorsetto antitrumpiano, giocando sulla parola peace e piece, dicendo che Trump più che la pace vuole un pezzo di tutto.

9) Insomma, meno entusiasmo e più nervosismo. Rispetto agli anni precedenti, Davos appare più cauto. L’AI è considerata inevitabile e non governabile. Una sintesi ricorrente è stata: “Il clima intorno all’AI quest’anno è stato più cauto che celebrativo.”

10) In mezzo a tanta cautela, Elon Musk rilancia. Secondo lui, nel giro di pochi anni i robot (tre!) supereranno i migliori chirurghi umani, rendendo obsoleta la formazione medica tradizionale (ciao core, come dicono a Roma, quando non si riesce neppure a fare una TAC). Per il resto prosperità per il popolo mondiale, lavoreranno i robot, finché la previsione scivola subito nello scenario apocalittico:“C’è una probabilità non zero che l’AI porti a uno scenario simile a Terminator.

” Buffo: a evocare l’AI fuori controllo è lo stesso imprenditore che ha lasciato OpenAI, fondato xAI e promosso Grok, una delle intelligenze artificiali più spregiudicate e con meno policy in circolazione. Altman chiede regole perché è esposto, Musk oscilla tra un futuro meraviglioso e Skynet. Tra il pubblico non c’era Greta, ma forse Musk ha intravisto Sarah Connor.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica