Sentenze con ChatGpt. Ora il Csm corre ai ripari

Almeno due giudici pizzicati a farsi aiutare dalle app di Ai. "Vietato usarle, serve più trasparenza"

Sentenze con ChatGpt. Ora il Csm corre ai ripari
00:00 00:00

Dalle sentenze copia-incolla a ChatGtp l'algoritmo è breve. Dopo l'Ai Act europeo 2024/1689 e la legge 132 del 23 settembre scorso, che considerano "l'uso della tecnologia nella giustizia ad alto rischio" e vietano "le decisioni basate unicamente su un trattamento automatizzato", il Csm avvisa chi sceglie la scorciatoia pericolosa dell'aiutino dell'intelligenza artificiale nella sentenze .

A quanto risulta al Giornale da una fonte al Csm, "pare che in Procura generale della Cassazione pendano un paio di procedimenti" nei confronti di almeno due giudici furbetti - uno di primo grado - che avrebbero assunto una decisione citando precedenti inesistenti". Almeno un caso "sarebbe partito dalla Cassazione, dove è avvenuta la verifica" e "l'azione disciplinare da parte del Procuratore generale per grave e inescusabile negligenza" sarebbe già partita, ci conferma un altra fonte legale. "Ma fino a che non si arriva alla formale contestazione dell'incolpazione, al Csm non sanno nulla", dice al Giornale la fonte.

Per due giudici "pizzicati" in flagranza dal setaccio della Cassazione e diversi avvocati in malafede, condannati da Torino a Latina per lite temeraria ai sensi dell'articolo 96 del Codice di procedura penale dopo i loro ricorsi scritti da ChatGpt "con citazioni astratte e inconferenti", chissà quanti nelle aule di tribunale finora l'hanno fatta franca. Ecco perché l'ultimo plenum di lunedì scorso è stata decisa la stretta. Sappiamo che nei tribunali italiani si sperimentano già sistemi che analizzano precedenti, gestiscono gli arretrati o redigono bozze di atti, nei finanziamenti Pnrr è prevista la riduzione dell'arretrato anche grazie ad alcuni algoritmi dell'intelligenza artificiale, (le pendenze entro il 31 dicembre 2024 sono calate del 91,7% contro un obiettivo richiesto del 95%), ma il rischio che una macchina possa "decidere" per un giudice atterrisce.

Nella proposta elaborata dalla settima Commissione, relatori Marco Bisogni e la presidente Maria Vittoria Marchianò, per evitare distorsioni nell'esercizio dell'azione giudiziaria software come ChatGpt o software generativi simili come Chatbot, Copilot, Gemini, Perplexity sono "fuorilegge" per redigere sentenze o motivazioni, in chiave "predittiva"o per valutare le prove. La responsabilità è di chi firma la sentenza e non sarà delegabile - tipo me l'ha suggerito ChatGpt - secondo i principi di indipendenza, imparzialità e responsabilità personale sanciti dagli articoli 101 e 104 della Costituzione. L'uso delle tecnologie non si può rinviare, prima servono trasparenza, supervisione umana costante, piena tracciabilità e affidabilità dei dati, "l'addestramento" della Ai deve avvenire senza bias cognitivi, pregiudizi né discriminazioni, eventuali risultati inattendibili andranno reinterpretati o modificati dai giudici, con algoritmi sottoposti a una valutazione d'impatto etico e costituzionale. Il Csm chiederà un registro nazionale delle app di Ai certificate e percorsi formativi obbligatori organizzati dalla Scuola superiore della magistratura, chiesto dall'Osservatorio su Intelligenza artificiale e diritto, come ricorda al Giornale l'avvocato Cesare Del Moro, con una sperimentazione sotto l'egida del ministero della Giustizia. Sarà data massima attenzione alle informazioni generate, saranno inaccessibili ai terzi non autorizzati, ma serve anche la protezione dei dati - anonimizzati per evitare il rischio di reidentificazione attraverso l'incrocio di dataset - in un sistema informatico purtroppo vulnerabile.

In Cina già dal 2022 si è deciso il ricorso all'Ai per "limitare il potere discrezionale dei giudici e garantire equità, efficienza, e precisione nel giudizio", ma non si può pensare di ridurre un processo già per molti "ingiusto" a una a una mera contabilità digitale. "Per Piero Calamandrei un giudice giusto non è mai spietato, all'intelligenza artificiale - che si affida a meri sillogismi - manca l'umanità", sottolinea l'avvocato Ivano Iai.

La "neutralità algoritmica" resta un mito, un miraggio. Già nel 1990 Norberto Bobbio nel suo L'età dei diritti ammoniva sulle "minacce alla vita, alla libertà e alla sicurezza" che arrivano dal potere di chi "è in condizione di usare la scienza e le sue applicazioni".

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica