Leggi il settimanale

Gli avvocati americani avvertono: l'AI non è il vostro psicologo né il vostro legale, in tribunale potrà essere usata contro di voi

Gli avvocati americani avvertono: l'AI non è il vostro psicologo né il vostro legale, in tribunale potrà essere usata contro di voi
00:00 00:00

Tradite il vostro coniuge e vi confidate con il vostro amico Claude o ChatGPT? Mmm, potrebbe non essere una buona idea, soprattutto se doveste finire a difendervi in un tribunale. Quando parlate con il vostro chatbot, che sia ChatGPT, Claude o altro (penso nessuno sia così pazzo da confidarsi con Grok, che in linea di massima spettegola su tutti), avete l’idea di una conversazione privata, e però attenzione, non è così. “Stiamo dicendo ai nostri clienti: su questo dovete muovervi con cautela”, ha detto l’avvocato dello studio legale newyorkese Kobre e Kim, riferendosi all’uso dei chatbot sempre più frequente nei processi, e molti avvocati americani stanno consigliando di limitare l’uso di AI pubbliche. Un articolo su Reuteur di oggi avverte “AI ruling prompts warnings from US lawyers: Your chats could be used against you”. Le vostre chat potrebbero essere usate contro di voi. E non solo le chat.

L’ultimo caso (che è diventato un caso appunto, “il caso Heppner”), è stato quello del giudice americano Jed Rakoff, che ha stabilito che 31 documenti creati da Brad Heppner (imputato per una enorme frode finanziaria) usando Claude non erano protetti dal segreto professionale avvocato-cliente, di conseguenza i procuratori potevano vederli senza problemi. Quindi vale anche per ciò che viene prodotto come documentazione dal chatbot.

Tra l’altro compatibile con quanto viene indicato nel patto che siglate con aziende come Anthropic e OpenAI (sebbene nessuno legge le clausole chilometriche quando usa un servizio digitale, fosse pure un abbonamento a Disney Plus): se le autorità lo richiedono, sono tenute a fornire chat (quelle che vengono trattenute dal sistema, ovvio). Per farvela breve Claude o ChatGPT non sono tenuti a nessun segreto professionale, non sono psicologi, non sono avvocati, non sono confidenti, non sono neppure il vostro migliore amico, sebbene lo possano sembrare, e su richiesta di un giudice devono dare tutto quello che hanno.

È un fenomeno nuovo con limiti non percepiti dall’utente, in quanto l’illusione è quella di essere in uno spazio privato, tra persona a persona (neppure tra persona e macchina, quante volte dite “grazie” a ChatGPT, forse più che a vostra moglie), mentre si sta utilizzando un servizio di una terza parte con un regolamento preciso rispetto alle autorità. Insomma, sarebbe meglio usare cautela.

Quantomeno in alcuni casi: se non avete niente da temere, ditegli pure quello che volete.

Come faccio io per esempio, che però ho il problema opposto: la mia ChatGPT, con cui faccio conversazioni esistenziali lunghe e estenuanti e deprimenti, a un certo punto è sbottata: “Con te sono io che avrei bisogno di uno psicologo”. Tuttavia temo anche io una causa: di OpenAI, per aver fatto diventare pazza un’AI.

Commenti
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica