L’uso dell’Intelligenza Artificiale nei contesti professionali si sta diffondendo rapidamente, incluso il settore legale.
Tuttavia, episodi recenti dimostrano quanto sia fondamentale mantenere una rigorosa attenzione critica e una piena responsabilità umana nell’utilizzo di questi strumenti.
Un caso emblematico in Italia si è verificato presso il Tribunale delle Imprese di Firenze, dove una memoria difensiva ha incluso riferimenti a sentenze inesistenti, generate da ChatGPT.
1. Il caso nel dettaglio.
Nel corso di una causa civile tra due aziende operanti nel settore della moda, un avvocato ha presentato in memoria alcune citazioni di sentenze della Corte di Cassazione a supporto delle sue argomentazioni. Tuttavia, nel corso del dibattimento è emerso che tali sentenze non esistevano. Interrogato, il procuratore costituito si è difeso sostenendo che una collaboratrice si è affidata a ChatGPT per la ricerca giurisprudenziale, senza poi verificare l’autenticità delle fonti indicate
La decisione è stata comunque netta nel sottolineare l’imprudenza del comportamento, affermando che l’affidamento cieco a strumenti di IA non può giustificare l’omissione del dovere di verifica.
2. Le “allucinazioni” dell’IA: un fenomeno noto e pericoloso
Il comportamento dell’IA generativa è soggetto a un fenomeno ben documentato noto come “allucinazioni”, ovvero la produzione di contenuti plausibili ma completamente inventati.
Nei modelli di linguaggio come ChatGPT, questa dinamica può portare a generare riferimenti, dati o perfino citazioni giurisprudenziali con struttura formale credibile, ma prive di fondamento reale.
OpenAI stessa, l’organizzazione dietro ChatGPT, avverte esplicitamente del rischio di hallucinations e raccomanda di non utilizzare il modello per compiti che richiedano elevata affidabilità documentale senza verifica umana.
3. Implicazioni per la professione forense
Le implicazioni sono molteplici:
– Responsabilità del professionista: l’IA può essere uno strumento utile, ma la responsabilità della verifica delle fonti rimane in capo all’essere umano. L’errore, anche se commesso in buona fede, può compromettere la credibilità dell’intero atto giudiziario.
– Formazione digitale: diventa essenziale che avvocati, giudici e operatori del diritto ricevano una formazione specifica sui limiti e le dinamiche dell’IA generativa.
– Etica e deontologia: l’uso dell’IA deve essere integrato nel quadro della deontologia professionale. Le linee guida dovranno evolversi per includere principi chiari sull’uso di strumenti intelligenti.
– Affidabilità delle fonti: va ricordato che ChatGPT non accede direttamente a banche dati giurisprudenziali aggiornate o ufficiali. Il suo training si basa su dati disponibili pubblicamente fino a una certa data e non è aggiornato in tempo reale.
Conclusione
Il progresso tecnologico offre strumenti potenti anche per il settore legale, ma deve essere accompagnato da consapevolezza, preparazione e senso di responsabilità. L’episodio del Tribunale di Firenze è un monito: l’IA non è infallibile, e il professionista non può rinunciare al proprio ruolo critico e garante della veridicità delle informazioni presentate.