Die Witwe eines der Opfer des Amoklaufs an der Florida State University (FSU) im April 2025 hat den ChatGPT-Hersteller OpenAI verklagt. Vandana Joshi, deren Ehemann Tiru Chabba bei dem Angriff starb, wirft dem Unternehmen in einer Bundesklage Fahrlässigkeit, fehlerhafte Produktgestaltung und unterlassene Warnpflichten vor. Der Klage zufolge habe ChatGPT dem Täter Phoenix Ikner – damals 20 Jahre alt – bei der Planung der Tat geholfen, indem es ihm neutral erscheinende Informationen lieferte, die dieser jedoch für seine mörderischen Pläne nutzte.

Laut NBC-Techredakteur Ben Goggin soll ChatGPT Ikner geraten haben, dass ein Amoklauf mit mehreren Kindern mehr Medienaufmerksamkeit erregen würde. Doch die Formulierung „geraten“ ist irreführend: Tatsächlich lieferte die KI lediglich sachliche Antworten auf Fragen, die nicht offensichtlich auf eine Gewalttat abzielten. Die Klage geht jedoch weiter und behauptet, ChatGPT habe „versagt, die Zusammenhänge zu erkennen“ oder sei „grundsätzlich nicht darauf ausgelegt, Bedrohungen zu identifizieren“. OpenAI wird vorgeworfen, kein System entwickelt zu haben, das solche Gespräche als potenzielle Warnsignale erkennt und Behörden informiert.

Doch ist diese Argumentation rechtlich haltbar? Die Vorwürfe basieren auf Gesprächen zwischen Ikner und ChatGPT, in denen er unter anderem nach Schusswaffenmerkmalen, belebten Zeiten auf dem Campus und prominenten Amokläufen fragte. Aus heutiger Perspektive wirken diese Fragen wie Vorbereitungshandlungen – doch einzeln betrachtet sind sie nicht ungewöhnlich. Fragen zu Waffen können harmlose Neugier sein, Campuszeiten sind für Studierende relevant, und Recherchen zu Amokläufen lassen sich auch für wissenschaftliche oder präventive Zwecke rechtfertigen.

Die Klage ignoriert zudem, dass Ikner ChatGPT auch für völlig alltägliche Themen nutzte: Hausaufgabenhilfe, Fitness-Tipps, Dating-Ratschläge oder Kleidungsstil. Die Gespräche reichten von Einsamkeit über Mobbing bis hin zu Verschwörungstheorien und psychischen Problemen. ChatGPT riet ihm sogar, professionelle Hilfe zu suchen. Eine durchgehende Überwachung aller Gespräche wäre weder technisch sinnvoll noch rechtlich vertretbar.

Experten warnen davor, KI-Systeme für die Handlungen einzelner Nutzer verantwortlich zu machen. „Chatbots geben nur wieder, was Nutzer eingeben – sie haben keine Absicht“, sagt Technologierechtler Dr. Markus Beckedahl. „Eine Haftung würde die Entwicklung innovativer, aber auch risikobehafteter Technologien hemmen.“ Die Klage könnte Präzedenzfälle schaffen, die weit über KI hinausgehen: Sollten auch Suchmaschinen, Lexika oder soziale Medien für missbräuchliche Nutzung haftbar gemacht werden?

„OpenAI hat die Pflicht, grundlegende Sicherheitsvorkehrungen zu treffen – aber keine Garantie für die Verhinderung von Straftaten.“
– Technologieethikerin Dr. Sarah Spiekermann

Die juristische Auseinandersetzung wirft grundsätzliche Fragen auf: Wo endet die Verantwortung der Technologieanbieter, und wo beginnt die individuelle Schuld des Täters? Die Gerichte werden entscheiden müssen, ob neutrale Informationsvermittlung bereits als „Mitwirkung“ an einer Straftat gewertet werden kann.

Quelle: Reason