Die Nutzung von KI in Gerichtsverfahren birgt neue Risiken: Ein gegnerischer Anwalt kann durch eine sorgfältige Prüfung von KI-generierten Dokumenten peinliche Fehler aufdecken und damit eine Kanzlei bloßstellen. Genau das passierte der renommierten Wall-Street-Kanzlei Sullivan & Cromwell, die unter anderem Donald Trump vertritt.
Am vergangenen Samstag entschuldigte sich Andrew Dietderich, Co-Leiter der Restrukturierungsabteilung von Sullivan & Cromwell, in einem Brief an den zuständigen Richter Martin Glenn. Der Grund: Eine von der Kanzlei eingereichte Klageschrift in einem wichtigen Fall enthielt falsche Zitate und erfundene Rechtsgrundlagen, die von einer KI generiert worden waren.
„Wir bedauern diesen Vorfall zutiefst“, schrieb Dietderich in dem unterwürfigen Schreiben. Die Fehler wurden von der gegnerischen Kanzlei Boies Schiller Flexner entdeckt, die die Einreichung in einer Motion vor dem Bundesbankruptcy-Gericht in Manhattan prüfte. Dabei zeigte sich: Einige Passagen zitierten das US-Bankruptcy-Gesetz falsch oder verwiesen auf Urteile, die entweder falsch zusammengefasst oder sogar frei erfunden waren. Einer der von Sullivan & Cromwell zitierten Fälle existierte laut Boies Schiller Flexner gar nicht.
Offensichtlich in Sorge vor möglichen Sanktionen betonte Dietderich in seinem Schreiben die strengen internen Richtlinien der Kanzlei für den Einsatz von KI-Tools. Diese umfassen „Schulungsanforderungen für den Umgang mit KI in der Rechtsarbeit“. Dennoch seien die Richtlinien in diesem Fall „nicht eingehalten“ worden. „Ich versichere dem Gericht, dass die Richtlinien unserer Kanzlei zum KI-Einsatz klar und streng sind“, erklärte er.
Dietderich räumte zudem ein, dass die Kanzlei sofortige Gegenmaßnahmen ergriffen habe, darunter eine Überprüfung, wie die KI-Fehler unbemerkt bleiben konnten. Eine korrigierte Fassung der Einreichung wurde später nachgereicht.
Welche KI-Modelle im konkreten Fall verwendet wurden, blieb unklar. Laut Financial Times besitzt Sullivan & Cromwell jedoch eine Unternehmenslizenz für ChatGPT von OpenAI.
KI-Fehler in der Rechtsbranche: Ein wachsendes Problem
Der Vorfall ist nur der jüngste in einer Reihe von peinlichen Pannen, bei denen Anwälte durch KI-generierte Fehler auffielen. KI-Tools neigen dazu, falsche Zitate zu erfinden, Urteile falsch darzustellen oder sogar nicht existente Fälle zu konstruieren – Fehler, die von überlasteten Anwälten oft übersehen werden. Auch andere große Kanzleien wie Morgan Lewis wurden bereits durch ähnliche KI-Pannen bloßgestellt.
Richter zeigen sich zunehmend verärgert über solche Nachlässigkeiten. Einige haben bereits Sanktionen verhängt oder mit disziplinarischen Maßnahmen gedroht. In einem besonders kreativen Fall mussten zwei Anwälte der Kanzlei Cozen O’Connor zwischen einer Strafe oder einem Brief an ihre ehemalige juristische Fakultät wählen, in dem sie erklären sollten, wie sie sich blamiert hatten.
KI in der Rechtsbranche: Fluch oder Segen?
Während KI-Tools die Effizienz in Kanzleien steigern können, zeigt der Fall Sullivan & Cromwell, dass ihr Einsatz hochriskant sein kann – besonders wenn Kontrollen und Schulungen fehlen. Die Branche steht vor der Herausforderung, KI verantwortungsvoll einzusetzen, ohne dabei die Qualität juristischer Arbeit zu gefährden.