Magazine RDS

30.000 euro di multa a un avvocato che ha abusato dell’AI (e portato in tribunale citazioni fake)


Un avvocato cita quattro sentenze della Cassazione per sostenere la sua tesi, ma il giudice scopre che i precedenti non c’entrano nulla. Non si tratta di un refuso o di un dettaglio marginale: le pronunce esistono, ma trattano argomenti completamente diversi. Il risultato? Una condanna da 30.000 euro e un monito destinato a fare scuola sull’uso dell’intelligenza artificiale in ambito legale.


Sentenze della Cassazione “giuste” ma sbagliate: cosa è successo a Siracusa


Il caso arriva dal tribunale di Siracusa, dove un legale ha presentato quattro precedenti giurisprudenziali per avvalorare la propria difesa. Il giudice, insospettito dalla mancanza di coerenza tra le citazioni e le argomentazioni, ha verificato i riferimenti nel CED della Corte di Cassazione. Le sentenze – Cass. n. 1216/2000, n. 8379/2006, n. 14795/2003 e n. 4553/2004 – erano reali, ma i contenuti non avevano alcun legame con la causa in esame. Secondo la ricostruzione del magistrato, l’ipotesi più probabile è che l’avvocato abbia utilizzato uno strumento di AI generativa senza controllare le fonti originali.


L’AI non è una banca dati: il principio ribadito dalla sentenza


La decisione n. 338/2026 del 20 febbraio 2026 ha messo nero su bianco un concetto chiave: i modelli linguistici come quelli basati su intelligenza artificiale non sono archivi giuridici affidabili. Funzionano su base probabilistica, generando testi plausibili ma non necessariamente corretti. Il tribunale ha sottolineato che un semplice controllo avrebbe evitato l’errore, definendo l’uso acritico dell’AI come una colpa grave e una negligenza professionale. Un comportamento che, oltre a danneggiare la parte assistita, costringe giudici e avversari a verifiche aggiuntive, rallentando il processo.


30.000 euro di sanzioni: la condanna che fa discutere


Le conseguenze per il legale sono state pesanti. Il giudice ha disposto:



Non è il primo caso: gli errori dell’AI in tribunale


Il caso di Siracusa non è isolato. Episodi simili si sono verificati in passato, come a Firenze e nel 2023 a New York, dove un avvocato aveva citato precedenti inesistenti generati dall’intelligenza artificiale. La lezione è chiara: l’AI può essere uno strumento utile per la ricerca preliminare, ma non sostituisce il controllo umano. Come ha scritto il giudice nella sentenza, “i modelli generativi producono contenuti basati su plausibilità linguistica, non su accuratezza giuridica”.


Foto: iStock.