Negli Stati Uniti – a giugno 2025 – è scoppiato un caso che sta facendo discutere tutto il mondo legale: un tribunale ha dovuto annullare una decisione di divorzio perché conteneva citazioni di casi… inventati. Il sospetto? Che dietro ci sia l’uso improprio dell’Intelligenza Artificiale (IA).
Questa vicenda non è solo un errore tecnico: rappresenta un pericolo reale per la giustizia, soprattutto nei sistemi come quello americano basati sui precedenti. Ma andiamo con ordine.
Cosa è successo in Georgia?
In un tribunale della Georgia, un giudice ha scoperto che un’ordinanza in una causa di divorzio conteneva riferimenti a sentenze che non esistevano. L’ordine era stato scritto dall’avvocata del marito, pratica comune negli Stati Uniti: i giudici spesso possono chiedere ai legali di redigere bozze delle decisioni.
Ma questa volta qualcosa è andato storto: il documento includeva due casi inesistenti e altri due del tutto irrilevanti. Quando la moglie ha fatto ricorso, il giudice Jeff Watkins ha indagato e ha sospettato l’uso di un tool di AI generativa, probabilmente per velocizzare la scrittura.
L’avvocata è stata multata con 2.500 dollari, ma il punto non è solo economico: il problema è sistemico.
Perché è un pericolo per i paesi di Common Law
Il problema diventa enorme nei sistemi come quello americano, basati sul Common Law. In questi ordinamenti i precedenti contano quanto la legge scritta: una sentenza di oggi può influenzare centinaia di sentenze future.
Ora immagina: un giudice prende per buona una citazione inventata dall’AI e la inserisce in una decisione ufficiale. Quella sentenza diventa un “precedente”, e altri giudici potrebbero basarsi su di essa. Risultato? Un errore dell’AI rischia di entrare nel cuore del sistema legale, creando una catena di decisioni sbagliate.
Questo fenomeno ha un nome: AI Hallucination. Significa che l’Intelligenza Artificiale, pur sembrando sicura, può “inventare” informazioni plausibili ma false.
Cosa stanno facendo i tribunali per difendersi?
Il problema delle citazioni inventate dall’intelligenza artificiale non è affatto un episodio isolato, e anzi potrebbe diventare sempre più frequente. Gli esperti avvertono che i tribunali, soprattutto quelli di grado inferiore e con carichi di lavoro molto elevati, sono i più esposti: qui i giudici, oberati dalle pratiche quotidiane, rischiano di accettare senza controlli accurati i testi preparati dagli avvocati, che potrebbero contenere alcuni di questi errori. Ma ecco alcune prime contromisure negli USA:
In Michigan e in West Virginia, ad esempio, è stato stabilito che i giudici debbano dimostrare di essere “tecnologicamente competenti” anche in materia di intelligenza artificiale: in pratica, i magistrati vengono formati per riconoscere i rischi e i segnali tipici delle cosiddette hallucinations. Non si tratta solo di una raccomandazione etica, ma di un vero e proprio requisito di professionalità.
Parallelamente, alcune corti hanno iniziato a richiedere la disclosure obbligatoria, cioè una dichiarazione da parte degli avvocati sull’eventuale uso di strumenti di AI nei loro atti. In alcuni casi viene chiesto addirittura di specificare quale software sia stato utilizzato. Tuttavia questo approccio non è privo di limiti: dato che molte piattaforme legali stanno già integrando funzionalità di intelligenza artificiale “dietro le quinte”, non è sempre facile per i professionisti capire se e quanto i loro testi siano stati generati da un algoritmo.
Infine, si stanno discutendo anche proposte innovative. Una delle più interessanti è il cosiddetto bounty system, suggerito da studiosi del MIT: un meccanismo di incentivi che prevede premi economici per avvocati o funzionari che riescano a individuare per primi citazioni false nei documenti giudiziari. In questo modo, si creerebbe un sistema di controllo diffuso che non grava solo sui giudici e che potrebbe scoraggiare l’uso superficiale dell’AI.
Queste contromisure, pur ancora frammentarie e in fase di sperimentazione, mostrano che la sfida è duplice: sfruttare i vantaggi della tecnologia, che può effettivamente velocizzare ricerche e redazioni, cercando di non sacrificare l’affidabilità e l’integrità del diritto.
Quali rischi concreti per la giustizia?
L’uso incontrollato dell’intelligenza artificiale nei tribunali non rappresenta soltanto il rischio di arrivare a sentenze sbagliate, ma apre scenari ben più ampi e delicati per l’intero sistema della giustizia. Uno dei primi e più gravi pericoli riguarda la perdita di fiducia: se i cittadini iniziano a sospettare che le decisioni giudiziarie possano poggiare su precedenti inesistenti o su argomentazioni generate da un algoritmo senza adeguata verifica, la legittimità stessa delle istituzioni giudiziarie viene messa in discussione. La fiducia è il cuore del sistema: senza di essa, ogni verdetto rischia di sembrare arbitrario.
Un secondo effetto concreto è l’aumento dei contenziosi. Ogni volta che emerge un errore legato a un uso scorretto dell’AI, la parte danneggiata ha buone ragioni per presentare ricorso. Questo genera un effetto domino: nuovi procedimenti, tempi più lunghi e costi maggiori per tutti, in un sistema già spesso sovraccarico. In altre parole, l’AI rischia di rallentare la giustizia invece di velocizzarla.
Ci sono poi conseguenze dirette anche per gli avvocati. Negli Stati Uniti si sono già verificati casi in cui professionisti sono stati colpiti da sanzioni economiche (multe di migliaia di dollari) o da sospensioni temporanee dall’albo per aver inserito nei loro atti riferimenti a sentenze inesistenti.
Questi episodi, oltre a danneggiare la reputazione personale dei legali coinvolti, creano un precedente disciplinare importante che spinge l’intera categoria a muoversi con maggiore cautela.
Conclusioni: l’IA è un aiuto o una minaccia per i tribunali?
Il problema non è soltanto tecnico o procedurale, ma anche etico. Se la macchina diventa di fatto un co-autore delle decisioni legali senza che vi siano adeguati controlli, rischiamo di delegare all’AI la definizione stessa della verità giuridica. E il diritto, per sua natura, non può essere ridotto a una mera elaborazione automatica di testi. Come ha scritto il giudice Watkins: «le decisioni devono restare nelle mani di giudici in carne e ossa, con qualità umane che nessun algoritmo può replicare: ragionamento, empatia, etica».
