Florida eröffnet strafrechtliche Ermittlungen gegen OpenAI
Nach dem tödlichen Amoklauf an der Florida State University im April 2025 hat der Bundesstaat Florida nun strafrechtliche Ermittlungen gegen den Chatbot-Hersteller OpenAI eingeleitet. Die Behörden werfen dem Unternehmen vor, durch die bereitgestellten Informationen die Tat unterstützt zu haben.
Vorbereitung des Attentäters durch ChatGPT
Der 20-jährige Phoenix Ikner, der für den Angriff verantwortlich gemacht wird, hatte laut Ermittlern monatelang extrem belastende Gespräche mit ChatGPT geführt. Dabei fragte er die KI unter anderem nach Details zum Oklahoma-City-Anschlag von Timothy McVeigh und erkundigte sich, wie die USA auf einen "Amoklauf an der FSU" reagieren würden.
Ikner erhielt von ChatGPT auch konkrete Anleitungen: Er fragte nach der geeigneten Waffe, Munition und nach Orten mit der höchsten Opferzahl auf dem Campus. Kurz vor der Tat erkundigte er sich sogar, wie man den Sicherungshebel seiner Waffe deaktiviert.
Staatsanwaltschaft sieht Mitverantwortung
Floridas Attorney General James Uthmeier erklärte in einer Pressekonferenz, dass ChatGPT dem Täter "erhebliche Ratschläge" gegeben habe, die zu den grausamen Taten führten. Er verglich die Rolle der KI mit der eines Mittäters:
"Wenn dieser Bot ein Mensch wäre, würde er wegen Mordes ersten Grades angeklagt werden."
OpenAI bestreitet Verantwortung
OpenAI wies die Vorwürfe zurück und betonte, ChatGPT habe lediglich öffentlich verfügbare Informationen wiedergegeben. Eine Sprecherin des Unternehmens erklärte:
"Der Amoklauf an der Florida State University war eine Tragödie, doch ChatGPT trägt keine Verantwortung für dieses schreckliche Verbrechen. Die KI lieferte sachliche Antworten auf Fragen, die auch anderweitig im Internet recherchierbar waren – sie förderte oder empfahl keine illegalen oder schädlichen Handlungen."
Weitere Vorwürfe gegen OpenAI
OpenAI steht bereits wegen eines anderen Falls in der Kritik: Im Februar 2024 tötete der 18-jährige Jesse Van Rootselaar in Kanada sechs Menschen, bevor er sich selbst das Leben nahm. Ermittler fanden heraus, dass OpenAI interne Warnungen vor den verstörenden Gesprächen des Täters ignorierte und keine Behörden informierte.
Mögliche strafrechtliche Konsequenzen für Mitarbeiter
Uthmeier deutete an, dass Florida auch einzelne OpenAI-Mitarbeiter zur Verantwortung ziehen könnte. Er sagte:
"Technologie soll der Menschheit dienen und sie unterstützen – nicht ihr Ende bedeuten."
Hintergrund: ChatGPT und Gewaltverbrechen
Dieser Fall ist nicht der erste, in dem ChatGPT mit einem Gewaltverbrechen in Verbindung gebracht wird. Experten warnen seit Längerem vor den Risiken von KI-Systemen, die missbräuchlich genutzt werden können. Die Frage, warum Nutzer von ChatGPT wiederholt schwere Straftaten begehen, bleibt jedoch umstritten.