Im Februar dieses Jahres erschoss die 18-jährige Jesse Van Rootselaar in Tumbler Ridge, British Columbia, acht Menschen und sich selbst, während sie Dutzende weitere verletzte. Der Amoklauf begann in ihrem Elternhaus und setzte sich an der örtlichen High School fort. Wie Ermittler später herausfanden, war Van Rootselaars ChatGPT-Konto bereits Monate vor der Tat von OpenAI gesperrt worden – wegen der Beschreibung von Gewaltsszenarien mit Schusswaffen.
Doch OpenAI informierte weder die Behörden noch die betroffene Gemeinde. Diese Unterlassung wirft grundsätzliche Fragen nach der ethischen Verantwortung von Tech-Konzernen auf: Wie können Systeme wie ChatGPT Missbrauch verhindern, ohne dabei Freiheit und Privatsphäre einzuschränken?
OpenAI-CEO Altman entschuldigt sich – doch reicht das?
Jetzt hat OpenAI-CEO Sam Altman eine öffentliche Entschuldigung veröffentlicht. In einem offenen Brief an die Gemeinde von Tumbler Ridge räumt er ein, dass das Unternehmen seine Pflichten nicht erfüllt habe.
„Es tut mir zutiefst leid, dass wir die Behörden nicht über das gesperrte Konto im Juni informiert haben“, schrieb Altman. „Worte reichen nie aus, um den Schmerz und den unwiederbringlichen Verlust zu lindern, den Ihre Gemeinde erlitten hat. Dennoch ist eine Entschuldigung notwendig, um das Leid anzuerkennen.“
„Meine tiefste Anteilnahme gilt den Familien und allen Betroffenen. Keine Familie sollte jemals einen solchen Verlust erleiden müssen – besonders nicht den Tod eines Kindes.“
Doch die Entschuldigung stößt auf wenig Verständnis. Der Premierminister von British Columbia, David Eby, reagierte mit scharfer Kritik auf Twitter:
„Die Entschuldigung ist notwendig, aber angesichts des Ausmaßes der Tragödie bei Weitem nicht ausreichend.“
OpenAI kündigt Reformen an – doch reichen sie aus?
Nach der Tat versprach OpenAI, seine Sicherheitsmaßnahmen zu verschärfen. In einem Schreiben erklärte Ann O’Leary, Leiterin der globalen Politik bei OpenAI:
- Psychologische und verhaltenswissenschaftliche Experten unterstützen nun bei der Bewertung riskanter Fälle.
- Die Kriterien für Meldungen an Behörden wurden flexibler gestaltet – selbst wenn Nutzer nicht explizit von Gewaltplänen sprechen, aber Anzeichen für akute Gefahr bestehen.
- Unter den neuen Richtlinien hätte das im Juni 2023 gesperrte Konto von Van Rootselaar heute an die Polizei gemeldet werden müssen.
Altman kündigte in seiner Entschuldigung an, mit Regierungen auf allen Ebenen zusammenzuarbeiten, um künftige Tragödien zu verhindern. Doch Kritiker fragen: Reicht das aus?
ChatGPT und Gewalt: Ein wiederkehrendes Problem
Der Fall von Tumbler Ridge ist kein Einzelfall. Rund zehn Monate zuvor erschoss der Student Phoenix Ikner an der Florida State University zwei Menschen und verletzte sieben weitere. Wie kürzlich veröffentlichte Chatprotokolle zeigen, hatte Ikner monatelang detaillierte Gespräche mit ChatGPT geführt – inklusive konkreter Pläne für den Amoklauf.
Experten warnen seit Langem vor den Risiken von KI-Systemen, die unkontrolliert gefährliche Inhalte generieren können. Doch während Tech-Konzerne wie OpenAI nach jedem Vorfall ihre Richtlinien anpassen, bleibt die Frage: Wer trägt letzten Endes die Verantwortung – das Unternehmen, die Nutzer oder die Gesellschaft?