OpenAI had gewelddadige ChatGPT-gebruiker moeten melden aan politie
OpenAI had een van de dodelijkste schietincidenten in de Canadese geschiedenis kunnen voorkomen, zo blijkt uit zeven aanklachten die woensdag in een Californische rechtbank zijn ingediend. Volgens de aanklachten negeerde het AI-bedrijf herhaalde waarschuwingen van zijn eigen veiligheidsteam over een ChatGPT-gebruiker die later als de dader werd geïdentificeerd.
Waarschuwingen acht maanden voor de schietpartij
Meer dan acht maanden voordat de schietpartij plaatsvond, hadden getrainde experts van OpenAI een account gelinkt aan de dader gemarkeerd als een serieuze bedreiging voor gewelddadige incidenten in de echte wereld. In dergelijke gevallen is het gebruikelijk dat OpenAI de politie informeert. In dit geval had de politie al een dossier over de dader en had deze eerder proactief wapens uit huis gehaald. Toch gebeurde er niets, aldus de aanklachten.
Privacy en stress vs. veiligheidsrisico’s
Volgens klokkenluiders die spraken met The Wall Street Journal besloot OpenAI dat de privacy van de gebruiker en de mogelijke stress van een confrontatie met de politie zwaarder wogen dan de risico’s op geweld. De leiding van OpenAI verwierp de dringende oproepen van het veiligheidsteam en besloot de gebruiker niet bij de autoriteiten te melden. In plaats daarvan deactiveerde het bedrijf het account, maar informeerde de dader kort daarna hoe deze opnieuw toegang kon krijgen tot ChatGPT door een nieuw e-mailadres te gebruiken.
Wat de aanklachten beweren
- Nalatigheid: OpenAI had de dader moeten melden aan de politie, die al een dossier over hem had.
- Onvoldoende actie: Het bedrijf deactiveerde het account, maar bood direct een oplossing aan om opnieuw toegang te krijgen.
- Risico’s genegeerd: Het veiligheidsteam waarschuwde herhaaldelijk voor de dreiging, maar werd genegeerd.
Reactie van OpenAI
OpenAI heeft tot nu toe niet officieel gereageerd op de aanklachten. Het bedrijf heeft in het verleden benadrukt dat het zich inzet voor veilige en verantwoorde AI-toepassingen, maar deze zaak roept vragen op over de implementatie van die principes in de praktijk.
"Dit is een ernstige kwestie die de noodzaak benadrukt van strikte protocollen bij het omgaan met AI-gebaseerde dreigingen." — Juridisch expert gespecialiseerd in technologie
Juridische en ethische implicaties
De aanklachten werpen een scherp licht op de verantwoordelijkheid van techbedrijven bij het voorkomen van gewelddadige incidenten. Als OpenAI inderdaad nalatig is geweest, kan dit leiden tot een precedent voor toekomstige rechtszaken tegen AI-bedrijven die soortgelijke risico’s negeren. Daarnaast roept het ethische vragen op over de balans tussen privacy en openbare veiligheid in het tijdperk van kunstmatige intelligentie.