L’AI inventa le sentenze: allarme in un tribunale di Firenze. Ma perché niente multa?
Il Caso di Firenze: Sentenze Inventate dall’IA
Un avvocato coinvolto in una causa per contraffazione di marchi ha citato sentenze della Cassazione che non esistevano. L’errore non è stato umano, ma causato dall’intelligenza artificiale (IA), in particolare da ChatGPT, utilizzata per la ricerca giuridica. L’IA ha generato risultati errati, una pratica nota come “allucinazione dell’intelligenza artificiale”, che ha portato alla creazione di precedenti legali inesistenti.
La Reazione del Tribunale di Firenze
Nonostante l’errore, il Tribunale di Firenze non ha sanzionato l’avvocato, ma ha lanciato un forte allarme sulla responsabilità dell’uso dell’IA in ambito legale. I giudici hanno sottolineato la necessità di verificare accuratamente le fonti citate, soprattutto in un contesto così delicato come quello giuridico, per evitare che l’errore contaminasse il sistema della giustizia.
Le Reazioni Internazionali: Un Caso Simile negli Stati Uniti
Il caso italiano richiama un precedente negli Stati Uniti, dove uno studio legale è stato multato di 5.000 dollari per aver presentato sentenze false, create da un’IA. Le istituzioni legali globali stanno adottando linee guida per garantire l’uso corretto dell’IA, come quelle della Fédération des Barreaux d’Europe e della Carta dei principi dell’Ordine degli Avvocati di Milano.
Responsabilità e Formazione per gli Avvocati
Gli avvocati sono tenuti a verificare i risultati generati dall’IA, come sottolineato dalle linee guida professionali. Non è sufficiente affidarsi ciecamente alla tecnologia; occorre che ogni errore venga identificato e corretto. La responsabilità per gli errori causati dall’IA ricade sempre sull’avvocato, e la formazione sull’uso della tecnologia è fondamentale.
Conclusioni: Necessità di Norme e Controlli
Per evitare che l’uso irresponsabile dell’IA possa compromettere la giustizia, è necessario introdurre normative chiare e promuovere una formazione adeguata per i professionisti. La responsabilità dell’avvocato deve essere ben definita per garantire che l’IA resti un supporto utile, ma non sostitutivo del giudizio umano.
Tabella Riassuntiva
Aspetto | Dettagli |
---|---|
Caso di Firenze | Sentenze inventate da ChatGPT, utilizzato per la ricerca giuridica. |
Reazione del Tribunale | Nessuna sanzione per l’avvocato, ma allarme sulla verifica delle fonti. |
Reazioni Internazionali | Sanzioni in USA, linee guida in Europa (Fédération des Barreaux d’Europe). |
Responsabilità degli Avvocati | Controllo dei risultati generati dall’IA, formazione obbligatoria. |
Conclusioni | Necessità di normative chiare e responsabilità per l’uso dell’IA. |
Disegno di legge sull’AI, Art. 15 (Impiego dell’intelligenza artificiale nell’attività giudiziaria)
Ecco il testo integrale dell’Articolo 15 del Disegno di Legge n. 1146/24, approvato dal Senato il 20 marzo 2025, che disciplina l’uso dell’intelligenza artificiale nell’ambito della giustizia:
Art. 15
(Impiego dell’intelligenza artificiale nell’attività giudiziaria)
- Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.
- I sistemi di intelligenza artificiale sono utilizzati esclusivamente per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per le attività amministrative accessorie.
- Fino alla compiuta attuazione del regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari sono subordinati all’approvazione del Ministero della giustizia, che provvede sentite le autorità nazionali per l’intelligenza artificiale di cui all’articolo 18.
- Il Ministro della giustizia, ai sensi dell’articolo 12, comma 1, lettera a), del decreto legislativo 30 gennaio 2006, n. 26, include nelle linee programmatiche sulla formazione dei magistrati attività didattiche sul tema dell’intelligenza artificiale e sugli impieghi dei sistemi di intelligenza artificiale nell’attività giudiziaria.
Questo articolo stabilisce chiaramente che l’intelligenza artificiale può essere impiegata solo per supportare l’organizzazione e le attività amministrative del sistema giudiziario, mentre le decisioni giudiziarie rimangono esclusivamente di competenza dei magistrati.
La posizione dell’Ordine degli Avvocati della Lombardia: sanzioni per uso irresponsabile
In Italia, l’Ordine degli Avvocati della Lombardia ha preso una posizione chiara. Le linee guida dell’Ordine stabiliscono che l’uso irresponsabile dell’AI nelle pratiche legali può portare a sanzioni disciplinari. È necessario che gli avvocati siano consapevoli del fatto che l’AI deve essere utilizzata con trasparenza, responsabilità e solo come supporto, e non come sostituto delle capacità professionali. Le linee guida, recentemente aggiornate, mettono in evidenza che ogni informazione legale fornita dall’AI deve essere verificata attentamente, per evitare che errori o falsi contenuti possano danneggiare i clienti o compromettere il processo legale.
Cosa prevede la normativa?
Secondo le linee guida, l’avvocato che fa uso di strumenti AI deve seguire rigorosi principi etici:
- Verifica delle fonti: ogni sentenza, legge o precedente giuridico citato deve essere verificato prima dell’uso.
- Trasparenza: l’avvocato deve chiarire quando l’AI è stata utilizzata e come ha contribuito al lavoro legale.
- Responsabilità: l’avvocato non può delegare la propria responsabilità decisionale all’AI.
In caso contrario, l’uso dell’AI in modo negligente può portare a provvedimenti disciplinari, tra cui la sospensione o l’annullamento della licenza dell’avvocato.
Le reazioni della magistratura e della comunità legale
La comunità giuridica ha condannato fermamente i casi di uso scorretto dell’AI nel diritto. In Italia, il Consiglio Superiore della Magistratura (CSM) ha raccomandato di limitare l’uso dell’AI esclusivamente a strumenti di supporto, e mai come sostituto delle decisioni giuridiche. L’AI, infatti, non deve influenzare la valutazione delle prove né la formazione delle sentenze, poiché una decisione giudiziaria non può basarsi su dati non verificabili o su informazioni inventate.
Inoltre, il Disegno di Legge n. 1146/24 stabilisce che l’AI non può essere utilizzata come strumento per “automatizzare” le decisioni giuridiche o per influenzare le motivazioni delle sentenze.
Conclusioni: Responsabilità e trasparenza nell’uso dell’AI
L’intelligenza artificiale può essere un valido strumento nel campo giuridico, ma solo se usata con cautela, responsabilità e verifica. L’uso irresponsabile dell’AI in ambito giudiziario non solo può compromettere la qualità delle decisioni legali, ma espone anche a gravi conseguenze disciplinari. È essenziale che avvocati e magistrati siano formati sull’uso corretto di questi strumenti e che linee guida rigorose vengano seguite per evitare danni al sistema giuridico.
In Italia, l’Ordine degli Avvocati della Lombardia ha già tracciato una linea chiara: l’uso scorretto dell’AI sarà sanzionato, e ogni professionista dovrà rispondere delle proprie azioni. L’AI deve restare uno strumento di supporto, non un sostituto del giudizio umano.
Riepilogo in tabella
Aspetto | È consentito? | È regolato dal DDL 1146/24? | Note |
---|---|---|---|
Uso dell’AI da parte di avvocati per trovare sentenze | ![]() |
![]() |
Consentito, ma non ancora disciplinato |
Uso dell’AI da parte dei PM per analisi o redazioni | ![]() |
![]() |
Prassi possibile, senza norme specifiche |
Uso dell’AI nei tribunali (es. per attività amministrative) | ![]() |
![]() |
Richiede approvazione del Ministero |
Decisioni giudiziarie automatizzate | ![]() |
![]() |
Il giudice resta sempre responsabile |
Formazione dei magistrati sull’AI | ![]() |
![]() |
Prevista dal Ministero |
Formazione per avvocati/PM | ![]() |
![]() |
Offerta da Ordini o enti terzi |
Caso 1: L’avvocato di New York che ha usato ChatGPT (2023)
- Dove: Tribunale federale di Manhattan
- Chi: L’avvocato Steven Schwartz dello studio Levidow, Levidow & Oberman
- Cosa è successo: ha utilizzato ChatGPT per redigere una memoria difensiva e ha citato sei sentenze totalmente inventate, con tanto di nomi, numeri di protocollo, tribunali e giudici fasulli.
- Come è stato scoperto: l’avvocato della controparte ha segnalato al giudice l’impossibilità di trovare le sentenze citate.
- Conseguenze: il giudice ha definito la condotta “senza precedenti” e ha multato Schwartz e il suo studio legale per 5000 dollari, sottolineando la responsabilità professionale nell’uso dell’AI.
Schwartz ha ammesso in udienza di non sapere che ChatGPT potesse “inventare” fonti. Quando ha chiesto al chatbot se le sentenze erano reali, questo ha mentito confermandone l’esistenza.
Caso 2: Canada – decisione disciplinare contro un avvocato (2023)
- Dove: British Columbia
- Chi: un avvocato non identificato nel provvedimento
- Cosa è successo: ha presentato un documento con cinque sentenze inesistenti generate da un sistema AI.
- Conseguenze: è stato deferito dal comitato disciplinare della Law Society of British Columbia, anche se non è stato sospeso. È stato ordinato di frequentare corsi obbligatori sull’etica legale e sull’uso dell’intelligenza artificiale.
Caso 3: Colombia – sentenza scritta con l’aiuto di ChatGPT (2023)
- Chi: Il giudice Juan Manuel Padilla
- Cosa ha fatto: ha ammesso pubblicamente di aver utilizzato ChatGPT per scrivere una parte della motivazione di una sentenza su un caso sanitario.
- La polemica: ChatGPT aveva citato casi non verificabili. Il giudice ha difeso la sua scelta sostenendo che l’AI era solo un “assistente consultivo”.
- Reazioni: nel paese si è aperto un ampio dibattito sull’uso etico e controllato dell’AI nel processo decisionale.
The post L’AI inventa le sentenze: allarme in un tribunale di Firenze. Ma perché niente multa? appeared first on Key4biz.