OpenAI soll Warnungen vor Amokläufer ignoriert haben

In sieben Klagen, die am Mittwoch in einem kalifornischen Gericht eingereicht wurden, wirft eine Gruppe von Betroffenen dem KI-Unternehmen OpenAI vor, eine der tödlichsten Schulmassaker in der kanadischen Geschichte hätte verhindert werden können. Laut den Dokumenten hatte die interne Sicherheitsabteilung des Unternehmens bereits mehr als acht Monate vor der Tat einen ChatGPT-Nutzer als ernsthafte Bedrohung für die öffentliche Sicherheit eingestuft.

Die Experten hatten empfohlen, die zuständigen Behörden zu informieren – doch OpenAI entschied sich dagegen. Stattdessen deaktivierte das Unternehmen lediglich das Konto des Nutzers und ermöglichte ihm kurze Zeit später die erneute Anmeldung mit einer anderen E-Mail-Adresse, wie die Klagen behaupten.

Interne Warnungen wurden übergangen

Laut Wall Street Journal-Berichten, basierend auf Aussagen von Whistleblowern, priorisierte OpenAI den Datenschutz des Nutzers und mögliche negative Folgen einer Polizeimeldung über die potenzielle Gefahr. Die Führungsebene lehnte die Empfehlungen der Sicherheitsabteilung ab und unterließ eine Meldung an die Strafverfolgungsbehörden – obwohl diese bereits zuvor eine Akte über den späteren Täter angelegt und präventiv Waffen aus dessen Haus entfernt hatte.

Rechtliche Konsequenzen für OpenAI?

Die Klagen zielen darauf ab, OpenAI für die unterlassene Warnung und die vermeidbare Tat verantwortlich zu machen. Sollten die Vorwürfe bestätigt werden, könnte dies weitreichende rechtliche und finanzielle Folgen für das Unternehmen haben. Die Vorwürfe werfen zudem grundsätzliche Fragen zur Verantwortung von KI-Systemen und deren Betreibern auf.

„OpenAI hat durch sein Handeln nicht nur eine Warnung ignoriert, sondern aktiv dazu beigetragen, dass ein gefährlicher Nutzer weiterhin Zugang zu seinen Systemen hatte.“

– Auszug aus einer der eingereichten Klagen

Hintergrund: Der Amoklauf in Kanada

Bei dem Schulmassaker in Kanada wurden im vergangenen Jahr mehrere Menschen getötet. Der Täter hatte zuvor in Online-Foren und über ChatGPT detaillierte Pläne geschmiedet. Die Ermittlungen ergaben, dass er trotz früherer Warnsignale ungehindert blieb – unter anderem, weil OpenAI keine Meldung an die Behörden erstattete.

Forderungen der Kläger

  • Offenlegung aller internen Dokumente und Kommunikationen von OpenAI im Zusammenhang mit dem Fall
  • Entschädigung für die Hinterbliebenen und Verletzten
  • Striktere Sicherheitsvorkehrungen für KI-Systeme, um zukünftige Taten zu verhindern

Die rechtlichen Schritte könnten Signalwirkung für ähnliche Fälle haben, in denen KI-Unternehmen für unterlassene Warnungen haftbar gemacht werden.