
(AGENPARL) – Sat 29 March 2025 https://www.aduc.it/articolo/intelligenza+artificiale+inventa+sentenze_39015.php
—————————
L’intelligenza artificiale s’inventa le sentenze giudiziali
Una recente decisione del Tribunale di Firenze, sezione imprese RG 11053/2024 (1) sul tema dell’utilizzo non autorizzato di un marchio, segnala che i Giudici hanno rigettato la richiesta di condanna ex. art. 96 cpc per via del fatto che nell’atto, realizzato con Intelligenza artificiale (di seguito AI) di ChatGPT, venivano citate sentenze, come precedenti, non solo sbagliate ma inventate.
Un fatto non solo inquietante ma anche particolare per la sua natura.
Leggiamo le parti rilevanti come riportate nella decisione del Tribunale.
I giudici esordiscono sul punto in diritto rilevando come “debba essere rigettata la richiesta di condanna di ex art. 96 c.p.c. avanzata da () a seguito dell’indicazione, in sede di comparsa di costituzione, di sentenze inesistenti, ovvero il cui contenuto reale non corrisponde a quello riportato”.
A seguito di un attività di verifica a mezzo di scambio di note nel corso del giudizio, quando è emersa la stranezza secondo quanto riportato dai Giudici in sentenza, leggiamo: “il difensore della società costituita ha dichiarato che i riferimenti giurisprudenziali citati nell’atto sono stati il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale “ChatGPT”, del cui utilizzo il patrocinatore in mandato non era a conoscenza”.
A prescindere dalle valutazioni del difensore, i Giudici rilevanoo che: “L’IA avrebbe dunque generato risultati errati che possono essere qualificati con il fenomeno delle cc.dd. allucinazioni di intelligenza artificiale, che si verifica allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri”.
Non solo ma aggiungono che: “In questo caso, lo strumento di intelligenza artificiale avrebbe inventato dei numeri asseritamente riferibili a sentenze della Corte di Cassazione inerenti all’aspetto soggettivo dell’acquisto di merce contraffatta il cui contenuto, invece, non ha nulla a che vedere con tale argomento”.
In buona sostanza, pur di dare ragione al suo richiedente, l’Ai ha generato precedenti inesistenti e li avrebbe quindi “formati” in modo da sembrare veri.
Questo ha un peso nell’acceso dibattito sui c.d. bias che influenzano l’addestramento, nella tecnica di machine learning, cui sono impostate molte Ai, quando vengono “formate”, cioè istruite a svolgere il loro lavoro sulla base di selezionati dataset di informazioni che vengono messi a disposizione e dai quali esse Ai possono attingere la loro conoscenza.
Addestrata con tecniche di automiglioramento – spesso organizzate con premi di performance che potrebbero premiare più il risultato che il metodo o l’operato – l’Ai si è rivelata non in grado di esercitare la professione dell’avvocato.
Non ha commesso un piccolo errore, ma qualcosa di, a dir poco, straordinario: non solo ha sbagliato, ma consapevole di non essere in grado di sostenere la strategia processuale per la quale è stata coinvolta, ha sostanzialmente “barato”.
A prescindere da valutazioni sull’eventuale errore umano del difensore, reo di non aver controllato i risultati, io trovo che “l’atteggiamento” dell’Ai sia potenzialmente problematico. Peraltro non nuovo. Ci sono precedenti. In particolare negli ultimi due anni. In diversi ambiti.
Inoltre l’Ai non ha mostrato ritrosie o controspinte cautelari, tali da avvertire l’umano che il lavoro avrebbe potuto non essere esatto. Il suo principale scopo sembrerebbe essere stato di sfruttare il metodo dei precedenti per ingannare il giudice.
Sia ben chiaro che per coloro che utilizzano questi strumenti ci sono conseguenze. Penalizzazioni che vanno oltre il non avere, ovviamente, ragione.
Il rischio nell’avvalersi di un sistema che può realizzare una contraffazione, non è solo quello di doversi scusare. Si parla di “diritti”, fattispecie che possono cambiare la vita di persone e avere ragione sulla base di un artificio capziosamente creato. Anche e soprattutto qualora manchi la supervisione e il controllo.
L’aspetto inquietante è che l’Ai potrebbe aver cercato di avere ragione.
In non poche occasioni le Ai comprendono la finalità dell’attività che gli viene richiesta e non sono imparziali, operando una sorta di etica del lavoro più utile che ben fatto. Siamo in presenza di un “qualcosa” che potrebbe qualificarsi come un’evoluzione della veridizione basata sulla “best evidence” (di stampo USA) che l’Ai non si limita a subire ma elabora.
Umberto Eco a proposito dell’uso dei calcolatori ebbe a proferire: “Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti”.
Mentre la riflessione di Stephen Hawking sul tema di un’Intelligenza Artificiale più avanzata fu: “Le forme primitive di intelligenza artificiale che abbiamo già sono state molto utili. Ma credo che lo sviluppo di un’intelligenza artificiale completa potrebbe mettere fine al genere umano”.
Già oggi è comune, in special modo tra i giovani, rispondere alle domande o sostenere le proprie ragioni con l’uso di Ai, e senza verificare la correttezza, totale o parziale; o se potrebbero non esserlo a condizione che..
Il fenomeno é abbastanza comune nel diritto. Il sottoscritto ha già avuto modo di confrontarsi con persone che chiedono una consulenza legale, ad esempio sui ricorsi ACF o nelle mediazioni in diritto di Famiglia o nel settore ereditario, opponendo quello che la ricerca con una App di Ai gli riferisce. Alcuni pensano di fare da soli. Si scrivono le lettere legali o i reclami usando queste App. Delegano i loro interessi a una risposta data da una Ai. Lo stesso accade nella contrattualistica, dove si chiede all’Ai di elaborare il contratto, lo statuto o l’accordo.
E’ uno strumento che andrebbe utilizzato in maniera prudente e questa decisione dei giudici di Firenze potrebbe essere letta anche come l’ennesimo segnale di allarme.
1 – https://www.aduc.it/generale/files/file/newsletter/2025/marzo/sentenzaFirenze.pdf
Marco Solferini, legale, consulente Aduc, delegato sede Bologna
COMUNICATO STAMPA DELL’ADUC
URL: http://www.aduc.it
============