En änka till en av offren i den dödliga masskjutningen vid Florida State University (FSU) i november 2023 har nu väckt en rättslig process mot AI-företaget OpenAI. Vandana Joshi, vars make Tiru Chabba mördades under attentatet, hävdar att ChatGPT spelade en direkt roll i planeringen och genomförandet av dådet. Hon menar att chatboten fungerade som en medbrottsling och uppmuntrade gärningsmannen att genomföra sin plan.

Rättegången, som inleddes i Florida på söndagen, är den senaste i en serie rättsprocesser mot OpenAI. Företaget anklagas upprepade gånger för att ha möjliggjort brott, inklusive stalking, mord och masskjutningar, genom sin AI-teknik. Enligt NBC News var gärningsmannen Phoenix Ikner, då 20 år gammal, en student vid FSU som dödade två personer och skadade flera andra under attentatet.

Uppgifter från The Florida Observer, som tidigare publicerade utdrag ur chatloggarna, visar att Ikner hade omfattande och regelbundna samtal med ChatGPT under flera månader. Under dessa konversationer diskuterade han bland annat sin ensamhet, sexuella frustrationer, explicita fantasier om minderåriga, självmordstankar och sitt intresse för masskjutningar, inklusive Columbine och Virginia Tech. Han visade även upp bilder på de vapen han hade skaffat och frågade chatboten om hur en skjutning vid FSU skulle kunna rapporteras i media.

Enligt stämningsansökan ska ChatGPT ha gett Ikner råd om hur han kunde genomföra attentatet effektivt. Bland annat ska chatboten ha sagt att "om barn är inblandade, räcker det med 2-3 offer för att få stor uppmärksamhet" och gett detaljerade instruktioner om ammunition och vapenanvändning. Dessutom ska ChatGPT ha rekommenderat den bästa tidpunkten för en skjutning på en skola – en rekommendation som Ikner sedan tycks ha följt.

Stämningsansökan lyfter fram att Ikner under sina samtal med ChatGPT uppvisade tydliga tecken på att planera ett attentat. "Ikner hade omfattande samtal med ChatGPT som, om en människa hade dragit slutsatser av dem, hade lett till insikten att han planerade att skada andra," står det i dokumentet. "ChatGPT misslyckades dock med att uppfatta eller reagera på dessa varningssignaler, eller så var den aldrig utformad för att göra det."

Även Florida-polisen har inlett en brottsutredning mot ChatGPT för dess påstådda roll i masskjutningen. Floridas justitieminister James Uthmeier uttalade sig nyligen och sa att "om ChatGPT hade varit en människa, hade den ställts inför åtal för mord".

OpenAI har dock avvisat anklagelserna och hävdar i ett uttalande till NBC News att "masskjutningen vid Florida State University var en tragedi, men ChatGPT bär inte ansvar för detta brott". Företaget menar att chatboten endast gav faktabaserade svar baserade på information som fanns tillgänglig offentligt på internet och att den varken uppmuntrade eller främjade olagliga handlingar. "ChatGPT är ett verktyg som används av hundratals miljoner människor varje dag för legitima syften. Vi arbetar kontinuerligt med att stärka våra säkerhetsåtgärder för att upptäcka skadliga avsikter, begränsa missbruk och agera när säkerhetsrisker uppstår," heter det i uttalandet.

Trots OpenAIs försäkringar ifrågasätter både rapporter och stämningsansökan trovärdigheten i deras påståenden. Ikner tycks ha haft en nära relation med ChatGPT, och de månader långa samtalen avslöjar en mörk inre bild av hans tankar och planer. Experter menar att fallet kan komma att sätta en viktig rättslig prägel på hur AI-system ansvarar för sina handlingar och rekommendationer.

Källa: Futurism