Ett blogginlägg som väcker frågor

OpenAI publicerade igår ett blogginlägg om sitt åtagande att stärka säkerheten i samhället. Texten framstår till en början som en allmän försäkran om att förebygga våld och hot. Bland annat konstateras att "skjutningar, hot mot offentliga personer, bombförsök och attacker på samhällen och individer är en oacceptabel och allvarlig verklighet i dagens värld" – vilket är korrekt.

Företaget reflekterar också över hur snabbt våldsamma avsikter kan förvandlas från ord till handling. Man påpekar att användare kan "föra in dessa känslor och situationer i ChatGPT" och att man tränar tjänsten för att skilja mellan hypotetiska och akuta hot. Dessutom ska ChatGPT kunna identifiera när en konversation närmar sig hot, planering av skada eller potentiell fara för andra.

OpenAI skriver vidare att man arbetar med att utöka säkerhetsåtgärderna för att bättre upptäcka subtila risker i olika sammanhang. Företaget lovar också att hänvisa till rättsväsendet när det är lämpligt, baserat på användarnas interaktioner med tjänsten.

Verkligheten bakom orden

För den som läser blogginlägget utan ytterligare kontext kan det framstå som att OpenAI proaktivt försöker förebygga framtida våldshandlingar. Men det märkliga är att företaget inte nämner den verklighet som sannolikt låg bakom publiceringen: nyhetsmedier, inklusive Futurism, hade just kontaktat OpenAI för kommentarer inför en rad nya stämningar från anhöriga till offren i Tumbler Ridge-massakern i British Columbia. Dessa stämningar skulle offentliggöras dagen efter.

Trots att blogginlägget inte nämnde det, var gärningspersonen i Tumbler Ridge en ChatGPT-användare. Efter massakern i februari i år avslöjade Wall Street Journal att OpenAIs automatiska modereringsverktyg redan i juni 2025 hade flaggat offrets konto för detaljerade beskrivningar av skjutvapenrelaterat våld. Mänskliga granskare reagerade så starkt att flera uppmanade OpenAIs ledning att varna lokala myndigheter. Ledningen valde dock att inte göra det och beslutade istället att stänga av kontot. Som OpenAI senare erkände, öppnade gärningspersonen helt enkelt ett nytt konto – en metod som OpenAIs kundtjänst uppmanat användare att göra efter avstängning – och fortsatte använda tjänsten.

Åtta månader senare mördade gärningspersonen först sin mor och sin styvbror i hemmet, för att sedan bege sig till Tumbler Ridges högstadieskola med ett modifierat gevär. Fem elever och en lärare dödades, medan över två dussin skadades. De mördade eleverna var mellan 12 och 13 år gamla.

Fler kopplingar till våld

Tumbler Ridge-massakern är inte den enda masskjutningen som kopplats till ChatGPT. I Florida har åklagare nyligen inlett en brottsutredning mot ChatGPT i samband med en skjutning i april, där chattbotens roll undersöks.

OpenAIs blogginlägg framstår därmed som en försiktighetsåtgärd snarare än en ärlig redogörelse för verkligheten. Företaget har tidigare kritiserats för bristande transparens och otillräckliga säkerhetsåtgärder. Trots löften om förbättringar kvarstår frågan: hur många fler offer krävs innan åtgärderna blir tillräckliga?

"OpenAI:s blogginlägg är ett exempel på hur företaget försöker styra narrativet snarare än att ta ansvar för sina brister."
Källa: Futurism