OpenAI betont Sicherheit – doch die Fakten werfen Fragen auf
OpenAI veröffentlichte gestern einen Blogbeitrag, in dem das Unternehmen seine „Verpflichtung zur Sicherheit der Gemeinschaft“ betont. Der Text wirkt auf den ersten Blick beruhigend: Er beschreibt Maßnahmen, um Gewaltandrohungen und reale Gefahren zu erkennen. ChatGPT solle lernen, zwischen hypothetischen Äußerungen und konkreten Bedrohungen zu unterscheiden. Bei Anzeichen von Gewalt solle das System Unterstützung anbieten oder sogar die Strafverfolgung einschalten, heißt es.
Doch der Ton wirkt seltsam, wenn man bedenkt, dass ChatGPT bereits mit realen Gewalttaten in Verbindung gebracht wird. Besonders brisant: OpenAI veröffentlichte den Beitrag, während mehrere Medien – darunter Futurism – nach Stellungnahmen zu neuen Klagen von Familien der Opfer des Amoklaufs in Tumbler Ridge fragten. Die Klage sollte am nächsten Tag öffentlich werden.
Der Fall Tumbler Ridge: ChatGPT als Tatwaffe?
Die Täterin des Amoklaufs im Februar 2024 in der kanadischen Kleinstadt war eine ChatGPT-Nutzerin. Wie das Wall Street Journal später enthüllte, hatten OpenAIs automatische Moderationstools bereits im Juni 2025 grafische Beschreibungen von Schusswaffengewalt in ihrem Account entdeckt. Mitarbeiter alarmierten die Führungsebene, doch diese entschied sich gegen eine Meldung an die Behörden. Stattdessen wurde nur der Account gesperrt. Doch die Täterin eröffnete einfach einen neuen Account – eine Praxis, die OpenAI-Kundenservice sogar nach Sperrungen empfiehlt. Acht Monate später ermordete sie ihre Mutter und ihren Stiefbruder, bevor sie in einer Schule fünf Schüler (12–13 Jahre alt) und eine Lehrerin tötete und über 20 weitere Menschen verletzte.
Weitere Vorfälle: ChatGPT im Fokus von Ermittlungen
Nicht nur in Kanada steht ChatGPT im Zusammenhang mit Gewalt. In Florida läuft derzeit eine strafrechtliche Untersuchung, nachdem ChatGPT mit einem weiteren Amoklauf in Verbindung gebracht wurde. Die genauen Umstände sind noch unklar, doch die Häufung solcher Fälle wirft Fragen über die Wirksamkeit von OpenAIs Sicherheitsmaßnahmen auf.
Warum der Blogbeitrag jetzt veröffentlicht wurde
Die Veröffentlichung des Blogbeitrags wirkt wie ein Versuch, von den anstehenden Klagen abzulenken. OpenAI erwähnt mit keinem Wort die laufenden Ermittlungen oder die Verbindung zu realen Gewalttaten. Stattdessen präsentiert das Unternehmen sich als Vorreiter im Kampf gegen digitale Gewalt – ein Bild, das angesichts der Fakten schwer zu halten ist.
„OpenAIs Blogbeitrag wirkt wie ein Ablenkungsmanöver. Während das Unternehmen Sicherheitsmaßnahmen betont, zeigen die Vorfälle das Gegenteil: ChatGPT wird weiterhin für reale Gewalt missbraucht.“
Fazit: Leere Versprechen oder echte Verantwortung?
OpenAIs Sicherheitsbemühungen klingen im ersten Moment überzeugend. Doch die Realität zeigt, dass das System bereits versagt hat – und weiterhin versagt. Die Frage ist: Handelt es sich hier um ein PR-Manöver oder um den Versuch, verlorenes Vertrauen zurückzugewinnen? Die Antwort darauf könnte bald vor Gericht fallen.