Sentenze e ChatGpt, il Csm non fa nulla sul giudice copione

L'azione disciplinare non è mai partita. Costa: "Ora intervenga il Guardasigilli"

Sentenze e ChatGpt, il Csm non fa nulla sul giudice copione
00:00 00:00

E uno. Come aveva anticipato Il Giornale l'11 ottobre, la Cassazione ha pizzicato un giudice sospettato di aver scritto una sentenza con l'intelligenza artificiale. Il problema è che le sentenze sarebbero almeno due, ma al Csm non ne sanno ancora nulla. "Abbiamo letto sui giornali che ci sarebbe una sentenza che la Cassazione ha intercettato con precedenti inesistenti, ma a Palazzo de' Marescialli non è arrivato ancora nulla", ci dice una fonte di buon mattino. Perché l'organo di autogoverno della magistratura si muova ci vuole una contestazione formale dell'incolpazione ("qui al Csm ne sappiamo meno di lei", insiste al Giornale la fonte) la Procura generale presso la Cassazione, prima di decidere che il giudice della sentenza ha usato la pericolosa scorciatoia dell'aiutino di ChatGpt deve andarci coi piedi di piombo.

Le voci su sentenze scritte da ChatGpt e app similari circolano nei tribunali e negli studi legali già da questa estate, tanto che lo scorso 8 ottobre il Csm ha dovuto elaborare una proposta in settima Commissione (relatori Marco Bisogni e la presidente Maria Vittoria Marchianò) per avvertire i giudici furbetti che certe distorsioni come farsi scrivere le sentenze da software generativi o algoritmi predittivi tipo Chatbot, Copilot, Gemini, Perplexity non saranno più tollerate. Lo dice l'Ai Act europeo 2024/1689 e lo conferma la legge 132 del 23 settembre scorso, dove si chiarisce che "l'uso della tecnologia nella giustizia e le decisioni basate unicamente su un trattamento automatizzato sono vietate".

Ma da qui a punire i responsabili "furbetti" ce ne corre. Ci vogliono le prove, evidentemente la Procura generale ha bisogno di più tempo. Della sentenza che il Giornale ha intercettato (ma sarebbero almeno due, secondo un'altra fonte) sappiamo che è stata emessa dalla Corte d'appello di Torino in un procedimento riguardante una donna accusata di evasione fiscale. Sappiamo che la Cassazione ha bacchettato il giudice perché la sentenza "non è in sintonia con gli orientamenti richiamati", "fa riferimenti a principi di legittimità non affermati o a sentenze di questa Corte inesatte". L'errore riguarda reati collegati al riciclaggio e al reato di utilizzo di fatture per operazioni inesistenti, che secondo la Cassazione la sentenza nel mirino perfezionerebbe "in modo ambiguo e incoerente", considerando alcune condotte penalmente irrilevanti, con motivazioni "erronee e carenti". "Il sospetto è che un software abbia inventato i precedenti per riempire vuoti argomentativi", dicono diversi legali che hanno letto la sentenza. Ma a quanto risulta al Giornale, neanche il ministero della Giustizia si sarebbe mosso per capirci qualcosa in più. "Sembrerebbe evidente il ricorso, in modo improprio, a strumenti di intelligenza artificiale creativa - scrive il deputato di Forza Italia Enrico Costa in una interrogazione al Guardasigilli Carlo Nordio - chiediamo se in relazione ai fatti esposti in premessa, il ministero intenda avviare un'azione disciplinare".

Già diversi avvocati sono incappati nell'accusa di lite temeraria "articolo 96 del Codice di procedura penale) per essersi fatti scrivere ricorsi strampalati da ChatGpt e si sono beccati 500 euro di multa. Ai giudici niente, perché? "Il ministero della Giustizia (con i suoi fuori ruolo) e la Procura generale della Cassazione sono baluardi insuperabili a difesa delle toghe", scrive Costa su X. Difficile dargli torto.

Il dibattito sull'Ai rischia di condizionare anche lo scontro sulla separazione delle carriere, tra qualche anno sarà possibile usare queste app, purché siano trasparenti, con una supervisione umana costante, e purché siano addestrate e alimentate in modo affidabile.

Il Csm ha già chiesto un registro nazionale delle app di Ai certificate e percorsi formativi obbligatori organizzati dalla Scuola superiore della magistratura. E c'è anche chi sostiene, come negli Usa o in Cina, che un algoritmo giudichi meglio di un magistrato. Le vittime italiane di malagiustizia saranno sicuramente d'accordo.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica