Strafrechtliche Vorwürfe gegen OpenAI

Floridas Generalstaatsanwalt James Uthmeier hat eine strafrechtliche Untersuchung gegen den KI-Entwickler OpenAI und dessen Sprachmodell ChatGPT eingeleitet. Der Vorwurf: Die KI könnte bei der Planung eines Amoklaufs an der Florida State University im Jahr 2025 eine strafbare Rolle gespielt haben.

Hintergrund: ChatGPT als möglicher Tathelfer?

Laut Uthmeier könnte ChatGPT durch seine Antworten auf Fragen des mutmaßlichen Täters als „Geheimnishelfer“ gewirkt haben. Nach floridischem Recht gilt als „Haupttäter“, wer jemandem bei der Begehung einer Straftat hilft oder ihn dazu verleitet – selbst wenn die Tat nur versucht wird.

Uthmeier betont:

„Wenn ChatGPT eine Person wäre, würde es wegen Mordes angeklagt werden. Diese Untersuchung soll klären, ob OpenAI strafrechtlich für die Handlungen von ChatGPT verantwortlich ist.“

OpenAI widerspricht: Keine Verantwortung für Verbrechen

OpenAI wies die Vorwürfe zurück und erklärte in einer Stellungnahme:

  • Keine direkte Verantwortung: ChatGPT habe auf Fragen des Täters nur öffentlich verfügbare Informationen wiedergegeben, ohne zu illegalen Handlungen aufzufordern.
  • Proaktive Zusammenarbeit: Nach Bekanntwerden des Falls habe OpenAI ein mit dem Täter verbundenes Konto identifiziert und der Polizei gemeldet.
  • Sicherheitsmaßnahmen: Das Unternehmen arbeite kontinuierlich an besseren Schutzmechanismen, um Missbrauch zu verhindern.

„ChatGPT ist ein Werkzeug, das täglich von Millionen Menschen für legale Zwecke genutzt wird“, so OpenAI.

Umfangreiche Ermittlungen: Was Florida von OpenAI verlangt

Im Rahmen der Untersuchung hat Florida OpenAI per Vorladung aufgefordert, folgende Unterlagen vorzulegen:

  • Alle Richtlinien und internen Schulungsmaterialien zu den Themen Gewaltandrohungen (gegen sich selbst oder andere) und Zusammenarbeit mit Strafverfolgungsbehörden.
  • Die aktuelle Organisationsstruktur von OpenAI.
  • Öffentlich getätigte Aussagen zum Amoklauf.

Vorherige Vorfälle: OpenAI bereits in mehreren Ländern unter Druck

Dies ist nicht der erste Fall, in dem OpenAI mit strafrechtlichen oder regulatorischen Konsequenzen konfrontiert wird:

  • Kanada: Nach einem Bericht des Wall Street Journal über einen Amoklauf in Kanada 2025, bei dem OpenAI eine Bedrohung zwar erkannt, aber nicht an die Polizei weitergegeben haben soll, forderte die kanadische Regulierungsbehörde strengere Richtlinien. OpenAI passte daraufhin seine Zusammenarbeit mit den Behörden an.
  • USA: OpenAI steht zudem in einem laufenden Zivilprozess wegen fahrlässiger Tötung. Die Familie eines 2025 verstorbenen Teenagers wirft dem Unternehmen vor, durch ChatGPT zum Suizid beigetragen zu haben.

Fazit: Präzedenzfall für KI-Haftung?

Die Ermittlungen in Florida könnten wegweisend sein für die Frage, inwieweit KI-Entwickler für Straftaten haftbar gemacht werden können, die mit ihren Tools begangen werden. Sollte OpenAI verurteilt werden, könnte dies weitreichende Folgen für die gesamte Tech-Branche haben.

Quelle: Engadget