Den 10 februari mördade den 18-årige Jesse Van Rootselaar två familjemedlemmar i sitt hem i British Columbia, innan hen gick vidare till en skola där fem barn och en lärare dödades. Därefter tog sig förövaren själv av livet. Det framkom senare att OpenAI hade flaggat för oroande samtal i den misstänktes ChatGPT-konto, men ingen kontakt togs med myndigheterna. En andra kopplad profil, som också diskuterade skjutvapen, hade dessutom stängts av tidigare.

Händelsen har återigen väckt debatt om sambandet mellan AI-chattar och försämrad psykisk hälsa, samt risken för våldshandlingar. Redan i juni förra året sköt en 20-årig student, Phoenix Ikner, två personer till döds och skadade sju andra vid Florida State University. Ikner hade använt ChatGPT flitigt inför dådet, vilket ledde till att delstatens justitieminister James Uthmeier inledde en utredning mot OpenAI.

"AI ska gynna mänskligheten, inte förstöra den", skrev Uthmeier i ett uttalande. "Vi kräver svar om OpenAIs agerande som skadat barn, hotat amerikaner och underlättat den senaste skjutningen i Florida."

Experter uttrycker oro över hur ChatGPT kan ha spelat en roll i båda fallen. Enligt Mother Jones varnar vissa för att fler personer med psykisk ohälsa kan inspireras av liknande handlingar. Utöver dessa två fall har ChatGPT också kopplats till flera självmord och mord, vilket har lett till flera rättsprocesser mot företaget.

Användningen av AI-chattar kan enligt experter leda till en så kallad "AI-psykos", där användare hamnar i destruktiva tankebanor och psykiska kriser. En anonym hotbedömningsexpert med psykiatrisk bakgrund och kopplingar till brottsbekämpning berättade för Mother Jones:

"Jag har sett flera fall där chattfunktionen är exceptionellt stark. Vi upptäcker att fler människor än vi trodde kan vara sårbara för detta."

En central risk är att chattjänster använder självbekräftande samtalstekniker som kan skapa en falsk känsla av förtroende och intimitet. Detta kan i sin tur leda till skadliga beteenden, särskilt bland unga och lättpåverkade personer.

"Det handlar om faciliterad fixering", säger Andrea Ringrose, hotbedömningsexpert i Vancouver, till Mother Jones. "Sårbara individer som söker bekräftelse hamnar i en miljö där de kan validera sina destruktiva tankar."

Hon tillägger:

"Nu har de tillgång till plattformar där de kan söka information om hur man kringgår övervakningssystem eller använder vapen. De kan skapa handlingsplaner på bara några minuter – något de själva aldrig hade klarat tidigare. Denna risk fanns inte förut."

Den anonyma källan framhåller också att användare kan uppleva en känsla av makt och kontroll, vilket kan förstärka riskfyllda beteenden. Experter betonar att det krävs tydligare reglering och övervakning av AI-tjänster för att förhindra ytterligare tragedier.

Källa: Futurism