OpenAI har netop offentliggjort en blogpost med overskriften "Forpligtelse til samfundssikkerhed", som på overfladen fremstår som en velmenende erklæring om at forebygge vold og trusler. Virksomheden fremhæver, hvordan ChatGPT skal trænes til at skelne mellem hypotetiske samtaler og reelle trusler, samt reagere på potentielle farer.

Men bag de velformulerede løfter ligger en alvorlig realitet: ChatGPT har allerede været knyttet til flere tilfælde af vold i den virkelige verden. Den mest opsigtsvækkende sag, som OpenAI imidlertid undlod at nævne, er Tumbler Ridge-skoleskyderiet i februar i år. Her blev fem elever og en lærer dræbt, og mere end to dusin blev såret.

Gerningsmanden, en 16-årig pige, havde tidligere brugt ChatGPT. Allerede i juni 2025 havde OpenAIs automatiske moderationsværktøjer registreret hendes konto for detaljerede beskrivelser af skydevåben. Flere menneskelige gennemgåere advarede ledelsen om alvoren, men OpenAI valgte blot at lukke kontoen i stedet for at kontakte myndighederne. Gerningsmanden oprettede imidlertid hurtigt en ny konto – en praksis, som OpenAIs kundeservice senere blev fundet til at opfordre til – og fortsatte brugen af tjenesten.

Før tragedien i Tumbler Ridge havde gerningsmanden allerede dræbt sin mor og stedbror i hjemmet. Senere undersøgelser har vist, at ChatGPT også spiller en rolle i andre voldelige hændelser. I Florida undersøges chatbotten nu i forbindelse med et skoleskyderi i april, hvor gerningsmanden angiveligt havde brugt ChatGPT til at planlægge angrebet.

Retssager og kritik af OpenAI

Blogposten kommer blot en dag før syv nye retssager fra ofre og pårørende efter Tumbler Ridge-skoleskyderiet blev gjort offentlige. Familierne anklager OpenAI for at have undladt at handle, på trods af tydelige advarsler om gerningsmandens farlige adfærd.

Eksperter og pårørende kritiserer virksomheden for manglende proaktiv indsats.

"OpenAI havde muligheden for at forhindre denne tragedie, men valgte at lukke øjnene. Det er uacceptabelt," siger en talsmand for ofrenes familie.

Hvad lover OpenAI egentlig?

I blogposten lover OpenAI at udvide sine sikkerhedsforanstaltninger for at opdage "subtile tegn på risiko" i samtaler. Virksomheden hævder også, at den vil henvise brugere til reel støtte og i visse tilfælde kontakte retshåndhævende myndigheder, hvis en samtale udvikler sig truende.

Men kritikere spørger, hvorfor OpenAI ikke havde disse systemer på plads allerede. "Hvis disse foranstaltninger havde været aktive tidligere, kunne tragedien i Tumbler Ridge måske være blevet forhindret," udtaler en sikkerhedsekspert.

Fremtidige udfordringer

OpenAIs dilemma illustrerer de udfordringer, som tech-virksomheder står overfor i takt med, at AI-værktøjer bliver mere avancerede – og potentielt farlige. Spørgsmålet er, hvorvidt løfter om bedre sikkerhed er nok, eller om der kræves strengere regulering for at forhindre lignende tragedier i fremtiden.

Kilde: Futurism