Un nuovo metodo per smascherare gli errori dell'intelligenza artificiale in tribunale sta emergendo: basta controllare se l'avversario ha lasciato citazioni inventate o fuorvianti generate da un AI. È quanto successo allo studio legale Sullivan & Cromwell, uno dei più prestigiosi di Wall Street, che conta tra i suoi clienti anche Donald Trump.
Sabato scorso, Andrew Dietderich, co-responsabile del dipartimento di ristrutturazione aziendale dello studio, ha scritto una lettera di scuse al giudice federale Martin Glenn. Il motivo? Un documento presentato in un caso di bancarotta conteneva citazioni errate e inventate da un'intelligenza artificiale.
«Ci scusiamo profondamente per quanto accaduto», ha dichiarato Dietderich nella lettera, in cui ha anche sottolineato che lo studio ha adottato misure rigorose per prevenire errori simili.
L'errore è stato rilevato dallo studio legale avversario, Boies Schiller Flexner, che ha presentato un documento in tribunale a Manhattan. In alcune parti del testo, il documento di Sullivan & Cromwell citava in modo errato il codice di bancarotta statunitense e includeva decisioni giudiziarie inesistenti o mal interpretate. In un caso, una delle citazioni non corrispondeva nemmeno a una sentenza reale.
Temendo possibili sanzioni, Dietderich ha sottolineato nella lettera che Sullivan & Cromwell ha adottato politiche rigorose sull'uso dell'AI, tra cui requisiti di formazione specifici. Tuttavia, ha ammesso che queste regole non sono state rispettate nella preparazione del documento incriminato.
«Voglio assicurare alla Corte che le politiche dello studio sull'uso dell'AI sono chiare e rigorose», ha dichiarato Dietderich, aggiungendo che sono state avviate azioni correttive immediate, tra cui una revisione interna per capire come errori del genere siano potuti sfuggire ai controlli. Una versione corretta del documento è stata successivamente presentata al tribunale.
Non è stato specificato quale modello di AI sia stato coinvolto nell'errore. Tuttavia, secondo fonti vicine allo studio, Sullivan & Cromwell utilizza una licenza aziendale per ChatGPT di OpenAI.
Questo episodio si aggiunge a una serie di casi in cui avvocati hanno fatto affidamento su strumenti di AI generativa, finendo per commettere errori clamorosi. Gli AI possono citare in modo errato la giurisprudenza, inventare casi inesistenti o fornire informazioni fuorvianti, errori che spesso passano inosservati agli stessi professionisti. Anche altri studi legali di rilievo sono stati coinvolti in simili figuracce, tra cui Morgan Lewis.
I giudici non esitano a sanzionare gli avvocati che presentano citazioni errate generate da AI, arrivando persino a minacciare di segnalare i casi agli ordini forensi statali. In alcuni casi, le punizioni sono creative: quando due avvocati dello studio Cozen O’Connor sono stati colti in flagrante per aver incluso materiale errato generato da AI, il giudice ha dato loro la scelta tra accettare una sanzione o scrivere una lettera ai presidi delle loro facoltà di giurisprudenza per spiegare l'errore commesso.