Quando la sentenza viene inventata dall’A.I.: responsabilità ex art. 96 c.p.c.?
Di Massimiliano Pappalardo
L’articolo trae spunto dalla recente ordinanza del 14 marzo 2025 del Tribunale di Firenze che ha segnalato l’incidente in cui è incorso un avvocato, attraverso la citazione in un atto difensivo di una sentenza inesistente suggerita da un sistema di intelligenza artificiale, per esaminare limiti, opportunità e doveri connessi all’utilizzo degli strumenti di intelligenza artificiale in ambito forense.
Era solo questione di tempo e puntualmente è arrivato anche il primo provvedimento di un Tribunale italiano che segnala un episodio di allucinazione da AI in ambito processuale.
Il caso è ormai noto: il Tribunale di Firenze – Sezione Imprese – con l’ordinanza collegiale in data 14.3.2025 si pronunciava nei seguenti termini: “Il difensore della società costituita dichiarava che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza. L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri. (…) Ora, fermo restando il disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA, (…). L’indicazione di estremi di legittimità nel giudizio di reclamo ad ulteriore conferma della linea difensiva già esposta dalla si può quindi considerare diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la non applicabilità delle disposizioni di cui all’ art. 96 c.p.c.”.
Altri casi di allucinazioni – ovvero risposte parzialmente o completamente inventate dai sistemi di intelligenza artificiale, che traslate in ambito forense si sostanziano nella vera e propria invenzione di precedenti giurisprudenziali in realtà inesistenti – erano già stati segnalati dalle corti statunitensi.
Nota è la vicenda dell’avvocato Steven Schwartz, che nel 2023 aveva citato sentenze inesistenti nel corso di un procedimento avanti alla Corte distrettuale di New York. A fronte di tale condotta, il giudice distrettuale statunitense ordinò agli avvocati coinvolti nell’incidente ed al loro studio legale – Levidow, Levidow & Oberman – di pagare una multa complessiva di 5.000 dollari, con la motivazione che gli avvocati hanno agito in malafede ed hanno compiuto “atti di consapevole elusione” e reso “dichiarazioni false e fuorvianti al tribunale”.
Nel caso italiano, il Tribunale si è dimostrato sicuramente più clemente, ritenendo non sussistere gli estremi per ritenere che la parte avesse resistito in giudizio in malafede e, quindi, per irrogare una condanna ai sensi dell’articolo 96 c.p.c.
Peraltro, l’uso dell’intelligenza artificiale generativa ai fini dell’effettuazione di una ricerca giurisprudenziale sembra rientrare nei limiti consentiti da parte del disegno di legge recentemente approvato dal Senato in materia di intelligenza artificiale, che con riguardo all’utilizzo di tale tecnologia da parte dei professionisti – all’articolo 13 primo comma – ha introdotto la seguente previsione: “L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
Una ricerca giurisprudenziale effettuata attraverso un sistema di AI rappresenta, infatti, un’attività strumentale e di supporto, certamente non prevalente rispetto al lavoro intellettuale dell’avvocato nella stesura di una memoria difensiva.
Ciò nondimeno, l’utilizzo di un sistema di intelligenza artificiale generativa a tali fini è sicuramente uno dei meno consigliati, proprio in considerazione del rischio di allucinazioni tipico di questi strumenti.
Al riguardo, giova anche ricordare quanto previsto dalla “Carta dei Principi per un uso consapevole di strumenti di intelligenza artificiale in ambito forense”, recentemente adottata da parte dell’Ordine degli Avvocati di Milano (“Carta dei Principi”), la quale sul punto prescrive il dovere di competenza ed il principio della centralità della decisione umana. Con riguardo al dovere di competenza, la Carta dei Principi precisa: “E’ essenziale comprendere le funzionalità e i limiti dei sistemi di AI utilizzati, per garantire che i risultati siano accurati e appropriati al contesto legale”. Ed aggiunge: “Gli avvocati devono essere capaci di identificare e gestire i rischi associati all’uso dell’AI evitando una dipendenza da risultati automatizzati”.
Ove, nel caso di cui all’ordinanza in commento, il professionista avesse effettuato un corretto governo di questi principi, l’incidente occorso avrebbe potuto essere evitato. E ciò in quanto, anche nei rapporti con i collaboratori, ove il titolare di uno studio non intenda consentire l’utilizzo di strumenti di intelligenza artificiale – ormai ampiamente diffusi e di semplice accessibilità – avrebbe avuto l’onere di specificare il divieto, nelle proprie policy di Studio (o con altro mezzo). Ove invece l’utilizzo sia consentito è importante che vengano definiti i limiti e le modalità con cui tali strumenti possono essere utilizzati nello svolgimento della professione.
La Carta dei Principi richiama anche un ulteriore importante dovere: “Gli avvocati hanno il compito di intervenire attivamente per valutare criticamente i risultati prodotti dalle tecnologie di AI, assicurandosi che il processo di elaborazione non sia negativamente condizionato dagli algoritmi. Ogni risultato generato dall’AI deve essere sottoposto a un esame umano per garantire la sua adeguatezza, accuratezza e conformità ai principi etici e legali”.
Nel caso in esame, per evitare l’errore segnalato sarebbe stato sufficiente un double check dei risultati prodotti dal sistema di AI, non interrogando nuovamente il medesimo sistema – come sembra essere avvenuto – ma attraverso le banche dati giurisprudenziali di uso comune, che – a differenza degli strumenti di intelligenza artificiale generativa d’uso comune – offrono garanzia di affidabilità con riguardo ai provvedimenti giurisprudenziali censiti e raccolti.
Nel caso deciso dal Tribunale di Firenze, il difensore giustificava l’incidente occorso, dichiarando che i riferimenti giurisprudenziali citati nell’atto erano stati il frutto della ricerca effettuata da una collaboratrice di Studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza.
A questo riguardo, è utile richiamare un ulteriore obbligo previsto dal DDL licenziato dal Senato (articolo 13, secondo comma): “Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
Il medesimo obbligo di trasparenza dovrebbe, a maggior ragione, esistere tra i professionisti che lavorano su una medesima pratica, affinché il responsabile dell’incarico sia consapevole dell’utilizzo di uno strumento di AI e possa adottare tutte le misure utili o necessarie per contenere i possibili rischi.
Un approccio maturo e responsabile agli strumenti di intelligenza artificiale avrebbe, quindi, richiesto, da una parte, che lo Studio ne disciplinasse l’uso da parte di dipendenti e collaboratori (ivi incluso l’eventuale divieto) e, dall’altra, una piena trasparenza da parte della collaboratrice circa l’utilizzo di tale strumento nella redazione dell’atto. Un approccio maturo e responsabile verso i sistemi di AI richiede, tuttavia, un percorso di adozione.
Oltre all’Ordine degli Avvocati di Milano, numerosi sono gli organismi internazionali che hanno elaborato proprie linee guida circa l’utilizzo dell’intelligenza artificiale in ambito forense (tra le altre, si vedano Artificial Intelligence Strategy della Corte di Giustizia dell’Unione Europea; Practical guidance for the use of generative artificial antelligence in the practice of law – State Bar of California).
Indipendentemente dalla prospettiva da cui si osservi quanto accaduto, emerge con chiarezza la funzione fondamentale della AI Literacy in ambito forense, volta ad accompagnare i professionisti verso una maggior consapevolezza circa le potenzialità ed i limiti degli strumenti di intelligenza artificiale anche nello svolgimento della professione.
È inevitabile del resto che, quando una nuova tecnologia così innovativa e potente viene introdotta sul mercato, ci voglia tempo prima che inizi ad essere usata con cognizione e sapienza da parte degli operatori, ivi inclusi professionisti ed avvocati. La formazione, in questa prospettiva, può essere uno straordinario acceleratore e – come raccomanda anche la menzionata Carta dei Principi – rappresenta un passaggio imprescindibile, in special modo in settori che, in considerazione degli interessi coinvolti, meritano una speciale attenzione, come la giustizia e la difesa dei diritti.
Con l’ordinanza in commento, il Tribunale di Firenze – ritenuta l’assenza di malafede – si è dimostrato clemente, limitandosi a censurare il disvalore dell’omessa verifica, verosimilmente anche in considerazione della novità del fenomeno; è, tuttavia, probabile che in futuro anche le corti nazionali possano adottare verso tali condotte un metro di valutazione più severo.
Riferimenti normativi:
Art. 96 c.p.c.