Le allucinazioni dell’IA stanno creando problemi sempre più frequenti nei documenti legali, provocando l’irritazione dei giudici. Recemente un giudice californiano ha multato uno studio legale per aver presentato una memoria contenente citazioni inesistenti, generate da Google Gemini e altri strumenti AI utilizzati in ambito legale. In un altro caso, Anthropic ha ammesso che una citazione errata in un procedimento sul copyright è stata prodotta da Claude e non corretta in fase di revisione. In Israele, i pubblici ministeri hanno citato norme inesistenti: anche in questo caso, l’origine è stata attribuita a un LLM.
Secondo la docente e esperta di AI e diritto Maura Grossman (Università di Waterloo), il fenomeno non sta rallentando. Anzi, cresce anche tra studi legali di alto profilo, spesso spinti anche dalla tendenza a fidarsi eccessivamente dell’apparente autorevolezza dei testi generati. Gli avvocati si dividono tra chi evita completamente l’IA e chi, sotto pressione, si affida troppo alla tecnologia senza verifiche adeguate, spiega Grossman.
Le allucinazioni sono intrinseche al funzionamento dei modelli linguistici, ma nonostante questo le aziende continuano a commercializzare strumenti legali promettendo affidabilità. I giudici hanno però bisogno di informazioni accurate e verificate. Al momento, il rischio è che le decisioni giudiziarie vengano influenzate da informazioni errate introdotte dall’IA, compromettendo l’integrità del sistema.
Leggi l’articolo completo How AI is introducing errors into courtrooms su MIT Technology Review
Immagine generata tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).

