Nuove frontiere

Intelligenza artificiale, ecco perché ChatGPT non fa più paura

Dichiarare ChatGPT un successo è fuorviante, così come lo è dichiararla un flop. Ma tutta la paura che ha suscitato è ingiustificabile perché molti dei limiti che ha palesato non sono di facile soluzione. E c’è chi si distanzia in modo netto dalle Intelligenze artificiali generative

Ecco perché ChatGPT non fa più paura

Ascolta ora: "Ecco perché ChatGPT non fa più paura"

Ecco perché ChatGPT non fa più paura

00:00 / 00:00
100 %

Ha fatto tremare molti sollevando ipotetiche ricadute sul mondo del lavoro ma oggi, a quasi un anno di distanza dalla sua apparizione pubblica, ChatGPT non fa più paura.

Rilasciata definitivamente a novembre del 2022, ChatGPT ha dato una scossa profonda al mondo delle Intelligenze artificiali (AI) generative, rendendole comprensibili a tutti, dando quindi all’opinione pubblica modo di provare con mano ciò che fino a quel momento sembrava soltanto astratto.

Gli scenari che sono stati ipotizzati avevano tutti delle tinte noir: moria di posti di lavoro, supremazia delle macchine sull’uomo, pericoli per la privacy (non del tutto infondati, così come ha dimostrato il Garante per la privacy italiano) e altri mantra che non stanno trovando riscontri nella realtà delle cose.

È vero che molte aziende stanno integrando le AI nei propri cicli produttivi e nei rispettivi business ma lo fanno per supportare l’uomo e non per sostituirlo. L’argomento legato alle AI generative oggi è prettamente economico, tant’è che secondo Bloomberg, il mercato delle AI generative varrà 1.300 miliardi di dollari entro il 2032 ma è un calcolo che molte voci ritengono eccessivo.

Oggi ChatGPT brucia cassa e non fa profitti, generando una cifra d’affari di poche decine di milioni di dollari. Tutto ciò corrisponde a una perdita di 540 milioni di dollari oppure, detto in parole spicce: una delle aziende che avrebbero dovuto sconvolgere il mondo non è in grado di chiudere un bilancio in attivo.

ChatGPT tra flop e top

Le Ai generative (quelle che creano audio, testi, immagini, musica e altro ancora) hanno dei limiti impressionanti. Il primo di questi risiede proprio nell’uso che se ne fa: passata la curiosità iniziale, il traffico verso i siti che rendono accessibili le Ai generative cala mese dopo mese. Le persone le hanno provate, ci hanno giocato un po’ e poi sono passate oltre.

Il secondo limite è la loro scarsa (o comunque non riconoscibile) attendibilità. Ne sa qualcosa l’avvocato newyorkese che ha affidato a ChatGPT il compito di trovare precedenti giuridici utili per difendere il proprio cliente e che si è presentato in aula sventolando riferimenti a cause inventate. Esempio celebre che però non centra pienamente i rischi che si annidano in ChatGPT e che si possono riassumere così: poiché ChatGPT attinge al web per fornire risposte, può fare anche ricorso a siti poco attendibili per soddisfare le richieste degli utenti, restituendo contenuti inaffidabili.

Questo introduce il tema delle allucinazioni, ossia la creazione di contenuti inventati perché – benché le cose ora stiano cambiando e ChatGPT ammetta di non sapere – una risposta fantasiosa è meglio che niente.

Tutto ciò riconduce a un problema molto serio che frena la diffusione delle AI generative: allucinazioni, incapacità di contestualizzare e difficoltà nel garantire l’attendibilità dei contenuti restituiti non hanno soluzioni immediate.

La legge di Amara

In futuro le cose potrebbero cambiare, certamente. Lo dice la legge di Amara secondo la quale il potenziale delle tecnologie è sovrastimato nell’immediato e ampiamente sottostimato sul lungo periodo. Lo si è già visto in molte occasioni: Bill Gates sognava già dalla fine degli anni Ottanta che ogni americano avesse un computer in casa. Ci sono voluti circa 25 anni affinché ciò accadesse ma oggi, tra tablet, computer fissi e portatili non è azzardato dire che in moltissime case ce ne sono più d’uno.

Il punto è proprio questo: è necessario attendere degli anni per capire quale impatto potranno avere le AI generative sull’economia e quindi anche sul mondo del lavoro. Oggi, però, ChatGPT non fa paura.

C’è chi prende le distanze dalle AI generative

Le correnti di pensiero si dividono tra chi ha una fede cieca nelle AI generative, chi le ignora e chi se ne distanzia.

Stephen King va controcorrente rispetto al mondo dell’editoria. Per il padre putativo di “IT”, le AI generative non sono tanto creative da mettere in discussione il ruolo dello scrittore.

Il New York Times, invece, ha scelto la via del distanziamento e quella del tribunale. Non concede a ChatGPT di potere fare uso dei propri contenuti e sta valutando un’azione legale per violazione del diritto d’autore.

Anche la tutela della proprietà intellettuale e la scarsa creatività sono problemi grossi che sgonfiano il fenomeno delle AI generative.

Commenti