La prima volta di ChatGPT in una sentenza della Cassazione

L’assistente AI appare nel testo di una sentenza: è la prova che l’intelligenza artificiale è ormai diffusa in tutte le professioni, ma mancano formazione e regole. Cosa può andare storto?

3 Giugno 2024
Scarica PDF Stampa
Modifica zoom
100%

Alzi la mano chi non ha “un amico” (si dice così, no?) che ha utilizzato ChatGPT come una sorta di oracolo a cui chiedere le cose più disparate, dalle domande sulle cause di un dolore fisico alle discussioni sui programmi politici, da domande storiche a quesiti su personaggi più o meno famosi. In tutti questi casi, il sistema di IA ha sicuramente risposto, magari in modo deciso, dando l’impressione che la risposta fosse affidabile anche quando, magari, non lo era.
La stessa cosa deve essere probabilmente successa quando un avvocato ha preparato un ricorso per chiedere la revisione di una sentenza che aveva condannato i suoi assistiti per reati edilizi ed ambientali. Tra le prove fornite, per dimostrare ai giudici che l’area in questione non era sottoposta a vincolo ambientale, l’avvocato ha argomentato che “anche l’intelligenza artificiale ChatGPT aveva confermato che l’area in questione non era soggetta a vincoli”.

La prima pronuncia della Cassazione che cita ChatGPT

Apprendiamo di questo uso dell’IA generativa di OpenAI dalla sentenza n. 14631/2024 della terza sezione penale della Corte di Cassazione che cita questo argomento difensivo che però, evidentemente, non è stato condiviso dai giudici.
Si tratta – a nostra conoscenza – della prima pronuncia di Cassazione che cita ChatGPT, pur senza esprimersi sull’attendibilità dei suoi output. È interessante però perché dimostra che c’è già chi sta ricorrendo all’intelligenza artificiale generativa in ambito processuale, come l’avvocato che ha utilizzato il risultato del sistema di IA per supportare una richiesta di revisione e ha – sicuramente in buona fede – conferito alla risposta di ChatGPT il valore di un parere autorevole.

Necessarie regole deontologiche

Pochi mesi fa nella nostra newsletter LeggeZero avevamo previsto che, prima o poi, sarebbe successo anche in Italia quello che stava accadendo in altri Paesi, come gli USA, dove alcuni avvocati sono stati addirittura condannati per l’uso non verificato di sistemi di IA generativa.
Sono necessarie e urgenti regole deontologiche e formazione per evitare che, la prossima volta, un uso scorretto di ChatGPT possa portare a una sentenza ingiusta.

>> APPROFONDISCI QUESTO E ALTRI TEMI SU LEGGE ZERO, LA NEWSLETTER DI MAGGIOLI EDITORE SU INTELLIGENZA ARTIFICIALE E DIRITTO E L’INTERAZIONE TRA QUESTI DUE AMBITI.

Redazione

Scrivi un commento

Accedi per poter inserire un commento