OpenAI’s blog over veiligheid roept vragen op

OpenAI publiceerde gisteren een opvallende blog over haar ‘toewijding aan gemeenschapsveiligheid’. Het bedrijf benadrukt in een geruststellende toon dat het geweld tegen gemeenschappen en individuen ‘onacceptabel en ernstig’ is. Daarnaast legt het uit hoe ChatGPT wordt getraind om onderscheid te maken tussen hypothetische en directe dreigingen, en hoe het systeem gebruikers moet doorverwijzen naar hulpverleners of wetshandhaving wanneer nodig.

Maar de blogpost lijkt vooral een reactie op recente gebeurtenissen. OpenAI schreef het stuk terwijl nieuwsorganisaties, waaronder Futurism, de organisatie benaderden voor commentaar op zeven nieuwe rechtszaken van families van slachtoffers van de schietpartij in Tumbler Ridge, British Columbia. Deze zaak zou de dag na de publicatie van de blog bekend worden gemaakt.

ChatGPT’s rol in de Tumbler Ridge-schietpartij

De blogpost maakt geen melding van de dader van de schietpartij: een ChatGPT-gebruiker. Uit onderzoek van The Wall Street Journal blijkt dat OpenAI’s automatische moderatie in juni 2025 waarschuwingen gaf over grafische beschrijvingen van geweld in het account van de dader. Menselijke reviewers drongen erop aan om lokale autoriteiten te waarschuwen, maar dat gebeurde niet. In plaats daarvan werd het account gedeactiveerd. Het bedrijf gaf later toe dat de dader simpelweg een nieuw account aanmaakte – een tactiek die OpenAI’s klantenservice zelfs aanmoedigt na deactivering.

Enkele maanden later pleegde de dader een gruwelijke aanslag: eerst vermoordde ze haar moeder en stiefbroer, vervolgens nam ze een gemodificeerd geweer mee naar een middelbare school in Tumbler Ridge. Daar schoot ze vijf leerlingen (allen tussen de 12 en 13 jaar) en een leraar dood, en verwondde ze meer dan twintig anderen.

Meer geweld gelinkt aan ChatGPT

De schietpartij in Tumbler Ridge is niet het enige geweld waar ChatGPT mee in verband wordt gebracht. Onderzoekers in Florida starten momenteel een strafrechtelijk onderzoek naar de rol van de chatbot bij een schietpartij in april. De zaak is nog lopend, maar de ontwikkelingen zetten de veiligheidsmaatregelen van OpenAI opnieuw onder druk.

OpenAI’s blogpost benadrukt haar inspanningen om risico’s te beperken, maar de timing en de ontbrekende details roepen vragen op over de effectiviteit van deze maatregelen.

Wat OpenAI wel en niet zegt

  • Wel: ChatGPT wordt getraind om bedreigingen en geweld te herkennen en door te verwijzen naar hulpverleners.
  • Niet: Geen melding van de Tumbler Ridge-schietpartij of de eerdere waarschuwingen van moderatoren.
  • Niet: Geen uitleg waarom lokale autoriteiten niet werden gewaarschuwd, ondanks urgente signalen.

Reacties en gevolgen

De nieuwe rechtszaken en het lopende onderzoek in Florida kunnen grote gevolgen hebben voor OpenAI. Critici wijzen erop dat het bedrijf ondanks eerdere waarschuwingen niet adequaat heeft gereageerd. De vraag is of de huidige maatregelen voldoende zijn om herhaling te voorkomen.

«De timing van deze blogpost is opvallend. OpenAI lijkt vooral te reageren op de druk van rechtszaken en media-aandacht, in plaats van proactief veiligheid te waarborgen.» – Deskundige op het gebied van AI-ethiek

Wat betekent dit voor gebruikers?

Gebruikers van ChatGPT moeten zich bewust zijn van de beperkingen van de veiligheidsmaatregelen. Hoewel OpenAI stelt dat het systeem risico’s herkent, blijkt uit de praktijk dat ernstige gevallen kunnen worden gemist. Het is belangrijk om zelf verantwoordelijkheid te nemen bij het gebruik van de technologie.