En dommer i den amerikanske delstaten Pennsylvania har nylig avgjort en sak som setter advokater på varsel: Ditt navn og lisens står på spill, ikke AI-systemet du bruker.
Saken, Bunce v. Visual Tech. Innovations, Inc., involverer en advokat som ble ilagt sanksjoner etter å ha levert et dokument med oppdiktede juridiske referanser generert av kunstig intelligens. Dommer Kai Scott i Eastern District of Pennsylvania avgjorde nylig at advokat Rajan hadde brutt gjeldende regler ved å inkludere feilaktige kilder i sin innvending.
AI-generert dokument med fatale feil
Saken startet da en part i saken krevde rimelige reisegodtgjørelser for en avlyst rettsforhandling. Advokat Rajan reagerte med en omfattende innvending der han søkte om sanksjoner og motsatte seg reisegodtgjørelsen. I sitt svar påpekte motparten at Rajan tidligere hadde blitt ilagt sanksjoner for å ha brukt oppdiktede rettsavgjørelser og juridiske kilder som ikke støttet hans påstander. Til tross for dette gjentok Rajan feilen i sin innvending.
Dommeren konkluderte med at Rajan hadde levert et dokument med minst én oppdiktet referanse og flere feilaktige kilder. I en ordre datert 11. mars 2026 ble Rajan pålagt å betale alle rimelige reisegodtgjørelser til motparten. Dommeren krevde også at Rajan skulle redegjøre for hvorfor hans henvisninger i innvendingen ikke brøt med Rule 11(b) eller domstolens Standing Order om kunstig intelligens.
Rajans forsvar falt gjennom
I sitt forsvar hevdet Rajan at et «rimelig advokat» under de gitte omstendighetene ville ha handlet på samme måte. Han begrunnet dette med at motparten nektet å samarbeide om spørsmålet om reisegodtgjørelse. Dommeren avviste imidlertid dette argumentet og fastslo at det avgjørende spørsmålet var om Rajan burde ha visst at referansene var feilaktige.
«Hver advokat og partsrepresentant må verifisere riktigheten av sine innsendte dokumenter før de leveres til retten. Det er ikke tilstrekkelig at Rajan følte seg tvunget til å levere dokumentet fordi motparten nektet å samarbeide, eller at han trodde fristen var i ferd med å utløpe. Han kunne ha bedt om en utsettelse, noe retten ville ha innvilget,» heter det i dommerens avgjørelse.
Dommeren kritiserte Rajan for å ha levert et «halvveis» dokument generert av AI uten å verifisere innholdet. Da han ble utfordret av motparten, forsøkte Rajan å skyve skylden over på dem og fortsatte å forsvare sin fremgangsmåte. Han argumenterte også med at domstolens ordre ikke tydelig spesifiserte behovet for «kun menneskelig verifisering».
Konsekvenser for advokater som bruker AI
Avgjørelsen understreker at advokater har et personlig ansvar for innholdet i dokumenter de leverer til retten, selv om de er generert av AI. Dommeren presiserte at Rule 11(b) krever at alle innsendte dokumenter må være basert på rimelig undersøkelse og tro på at de er juridisk holdbare.
Rajans påstand om at han ikke vanligvis praktiserer jus, ble avvist av dommeren. «Det er ingen gyldig unnskyldning for ikke å verifisere referansene,» het det i avgjørelsen.
Dommen sender et tydelig signal til advokater om at de ikke kan skyve ansvaret over på AI-systemer når feil oppstår. Advokatens navn og lisens er det som står på spill, ikke AI-systemets.