Un giudice federale della Pennsylvania ha recentemente emesso una sentenza che sottolinea l’importanza della verifica delle fonti legali, soprattutto quando si utilizzano strumenti di intelligenza artificiale come ChatGPT. La vicenda riguarda Bunce v. Visual Tech. Innovations, Inc., un caso in cui l’avvocato Rajan ha presentato un ricorso contenente citazioni errate e, in un caso, completamente inventate.
La controversia è sorta dopo che la parte attrice aveva richiesto il rimborso delle spese di viaggio per una deposizione annullata. In risposta, Rajan aveva presentato un’istanza omnibus chiedendo sanzioni e contestando le richieste della controparte. Tuttavia, come evidenziato dalla corte, Rajan aveva già ricevuto sanzioni in passato per l’uso di casi e autorità giuridiche inesistenti a sostegno delle sue argomentazioni.
Nella sua replica, Rajan aveva minimizzato la questione, limitandosi a un breve riferimento in una nota a piè di pagina. Il 11 marzo 2026, il giudice Kai Scott ha ordinato a Rajan di pagare tutte le spese di viaggio ragionevoli alla controparte, respingendo la sua istanza omnibus e imponendogli di dimostrare perché le sue citazioni non violassero la Regola 11(b) del codice di procedura civile statunitense né l’Ordinanza Permanente sulla IA del tribunale.
Nella sua risposta all’Order to Show Cause, Rajan ha sostenuto che un avvocato ragionevole, nelle stesse circostanze, avrebbe agito allo stesso modo, adducendo come motivazione il rifiuto della controparte di collaborare sulla questione delle spese di viaggio. Il giudice ha però respinto questa argomentazione, sottolineando che la domanda corretta non riguarda l’atteggiamento della controparte, ma la diligenza dovuta nell’accertare la veridicità delle fonti.
Secondo la corte, Rajan avrebbe dovuto verificare personalmente le citazioni prima di presentare il ricorso. La Regola 11, infatti, impone a ogni avvocato e parte in causa di assicurarsi che le proprie istanze siano fondate su fatti verificabili. Rajan non ha fornito alcuna giustificazione valida per la mancata verifica, limitandosi a dichiarare che gli errori erano dovuti al fatto che non esercitava abitualmente la professione forense.
Il giudice ha inoltre evidenziato che Rajan non ha dimostrato di aver compreso appieno l’Ordinanza Permanente sulla IA, che richiede una verifica umana delle fonti utilizzate nei documenti legali. La corte ha concluso che il comportamento di Rajan è stato non solo negligente, ma anche in contrasto con i principi fondamentali della professione legale.
«Non è sufficiente che un avvocato si senta costretto a presentare un ricorso in fretta perché sta per scadere un termine. Avrebbe potuto, e dovuto, chiedere una proroga, che sarebbe stata concessa senza problemi. Invece, ha presentato un documento generato in modo approssimativo da un sistema di IA senza verificarne l’accuratezza, e poi ha cercato di scaricare la responsabilità sulla controparte».
La sentenza rappresenta un monito per tutti gli operatori del diritto sull’uso responsabile dell’intelligenza artificiale nei procedimenti legali. L’avvocato Rajan, ora, dovrà affrontare un procedimento disciplinare che potrebbe portare a ulteriori sanzioni, inclusa la sospensione dall’albo professionale.