12 Mar Avvocato, rischi la condanna se usi l’intelligenza artificiale senza verificare: può inventarsi leggi e sentenze
Pubblicato il: 12/03/2026
Nella fattispecie il giudice rilevava come il difensore avesse inserito, nella memoria ex art. 171 ter c.p.c., quattro precedenti della Cassazione inesistenti: più precisamente le massime virgolettate erano state costruite ex novo dalla macchina, prive di qualsiasi riscontro nel CED della Cassazione. Si tratta di una condotta che configura una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, perché introduce elementi potenzialmente idonei a influenzare il contraddittorio processuale e la fase di decisione verso un percorso non corretto e perché appesantisce inutilmente l’attività, da parte del giudice e delle controparti, di controllo della giurisprudenza evocata e dei principi giuridici dalla stessa affermati solo apparentemente.
Si rammenta che, già con la sentenza del 16 settembre 2025, la Sezione Lavoro del Tribunale di Torino aveva segnato un precedente destinato a incidere sul futuro rapporto tra professioni legali e intelligenza artificiale. I giudici, in quell'occasione, avevano infatti censurato duramente il comportamento di un avvocato che aveva impugnato un’ingiunzione di pagamento affidandosi in modo acritico agli output generati da un sistema di IA.
Secondo il tribunale piemontese, il ricorso si sostanziava in «un coacervo di citazioni normative e giurisprudenziali astratte, prive di un reale ordine logico e in gran parte inconferenti».
In entrambi i casi, pur riconoscendo la legittimità dell’uso di strumenti tecnologici nella pratica forense, i giudici evidenziano i rischi connessi a un affidamento indiscriminato agli algoritmi nella redazione degli atti giudiziari.
Per tale negligenza si è ritenuto applicabile l’articolo 96 del codice di procedura civile, norma che disciplina la cosiddetta responsabilità processuale aggravata, comunemente definita “lite temeraria”.
Ma quale dev’essere, secondo il legislatore, l’approccio corretto nell’utilizzo dell’IA?
Altresì significativa è la Convenzione Quadro del Consiglio d'Europa sull'IA, adottata a maggio 2024, che sottolinea l'importanza della cultura digitale e delle competenze specifiche per coloro che sono incaricati di identificare, valutare, prevenire e mitigare i rischi legati all'IA.
La Federazione degli Ordini Forensi d’Europa (FBE) ha, inoltre, recentemente reso disponibile in traduzione ufficiale italiana la versione 2.0 delle Linee guida sull’uso responsabile dell’intelligenza artificiale generativa (GenAI) da parte degli avvocati.
È necessario, ancora, conoscere bene i limiti dell'IA generativa nella pratica legale 4.0. Non tutti i sistemi di IA sono uguali, e quelli progettati per conversazioni generali o uso dei consumatori potrebbero non essere adatti per applicazioni legali. I risultati generati dall'IA possono talvolta mancare di completezza, accuratezza o attualità, specialmente quando vengono impiegati al di fuori dell’ambito per i quali sono stati creati. Ciò può portare a output inaffidabili o fuorvianti, con rischi significativi in un contesto legale professionale. Pertanto, sarebbe consigliabile scegliere e applicare gli strumenti di IA in modo coerente con i contesti e gli usi per cui sono stati progettati, e conoscere e comprendere le loro limitazioni generali e specifiche.
Anche clienti e controparti potrebbero usare strumenti di IA generativa, ad esempio per affinare le proprie strategie o per produrre prove documentali. Questa eventualità apre la porta a un rischio concreto: l’uso di deepfake, cioè contenuti digitali – immagini, audio o video – creati o modificati in modo da sembrare autentici, ma che in realtà sono del tutto artefatti (imitando persone, oggetti, luoghi, enti o eventi reali). Diventa, quindi, indispensabile rivedere l'approccio alla prova (sin da quando si riceve un documento dal cliente e se ne valuta la possibile produzione in giudizio).
Vai alla Fonte
Sorry, the comment form is closed at this time.