7

L’ombra dell’IA su un tribunale USA: sentenza annullata per errori clamorosi, il Giudice chiede a ChatGPT?

Negli Stati Uniti è stata ritirata e annullata una sentenza a causa di alcuni errori grossolani commessi dall'intelligenza artificiale: cos'è accaduto?

NOTIZIA di Francesco Messina   —   25/07/2025
Giudice IA

Un giudice distrettuale statunitense ha ritirato una sua decisione in una causa contro l'azienda biofarmaceutica CorMedix, dopo che sono stati rilevati gravi errori nei riferimenti legali usati per motivare l'ordinanza. Secondo quanto riportato da Bloomberg Law, la sentenza conteneva citazioni inventate e interpretazioni errate di precedenti giudiziari - errori che ricordano da vicino le cosiddette "allucinazioni" dell'intelligenza artificiale.

Questo caso mette in luce una tendenza sicuramente controversa legata agli usi più disparati dell'IA e a come quest'ultima possa supportare e talvolta rendere ancor più difficile il lavoro dell'uomo.

Il caso CorMedix

A sollevare la questione è stato l'avvocato Andrew Lichtman, che ha inviato una lettera al giudice Julien Xavier Neals del tribunale del New Jersey. Nella missiva, Lichtman ha evidenziato "una serie di errori" nel rifiuto del giudice di accettare la richiesta di archiviazione da parte di CorMedix. Tra gli sbagli indicati figurano tre casi citati in modo scorretto e numerose citazioni inventate, erroneamente attribuite a sentenze esistenti.

Anche Meta AI vince la sua battaglia contro il copyright, ma forse è colpa degli avvocati Anche Meta AI vince la sua battaglia contro il copyright, ma forse è colpa degli avvocati

A seguito della segnalazione, il tribunale ha pubblicato una nuova nota nel registro giudiziario, in cui si afferma che la precedente "opinione e ordinanza sono state emesse per errore" e che una nuova versione sarà resa disponibile. Mentre piccole correzioni post-sentenza non sono inusuali nei tribunali (come la modifica di errori grammaticali o di formattazione), la rimozione o revisione sostanziale di interi paragrafi è rara e segnala un problema più profondo.

L'IA in tribunale?

Sebbene non vi sia una conferma ufficiale dell'uso di strumenti di intelligenza artificiale da parte del giudice, i tipi di errori presenti sono compatibili con quelli comunemente associati a modelli linguistici generativi, come ChatGPT o Claude di Anthropic.

Tribunale
Tribunale

Non è la prima volta che l'intelligenza artificiale causa problemi nel campo legale: ad esempio, gli avvocati di Mike Lindell, fondatore di MyPillow, sono stati multati per aver usato riferimenti legali generati dall'IA, rivelatisi poi inesistenti. Staremo a vedere come si evolverà una situazione che, sicuramente, si presenta in maniera decisamente spinosa.