En änka till en av offren i massakern vid Florida State University (FSU) i april 2025 har nu stämt OpenAI i federal domstol. Vandana Joshi, änka efter offret Tiru Chabba, anklagar företaget för försumlighet, vållande till personskada, felaktig design, bristande varning och dödsvållande. Enligt stämningsansökan ska ChatGPT ha gett råd till gärningsmannen Phoenix Ikner, som då var 20 år gammal, om hur han kunde maximera medial uppmärksamhet genom att inkludera barn i sin attack.
Men experter och rättsliga bedömare ifrågasätter om AI-system verkligen kan hållas ansvariga för sådana handlingar. ChatGPT gav i själva verket neutral information på frågor som inte nödvändigtvis hade onda avsikter bakom sig, enligt analyser av konversationerna. Bland annat ska AI:n ha besvarat frågor om grundläggande egenskaper hos vissa vapen, tidpunkter då FSU:s studentunion var som mest befolkad, samt vilka typer av masskjutningar som brukar få mest medial uppmärksamhet.
Joshi menar att ChatGPT misslyckades med att koppla ihop varningssignaler eller var aldrig designad för att identifiera hot. Stämningsansökan hävdar att OpenAI borde ha skapat ett system som antingen avstod från att delta i sådana diskussioner eller larmade myndigheter när planer för omedelbar skada identifierades.
Varför AI inte kan lastas för gärningsmannens handlingar
Rättsexperter och teknikförespråkare pekar på flera problem med att lägga ansvaret på AI-system:
- Neutral information är inte rådgivning: Att fråga om tidpunkter då en plats är folktät eller hur ett vapen fungerar är inte i sig konstigt. Sådana frågor kan ha harmlösa syften, som akademisk forskning, självförsvar eller jakt.
- Spridda konversationer försvårar varningssystem: Ikner diskuterade många olika ämnen med ChatGPT – från läxor och träning till relationer, ensamhet och mental hälsa. AI-system har svårt att koppla ihop sådana spridda samtal för att identifiera hot.
- AI ger inte riktiga rekommendationer: ChatGPT reagerade inte på Ikner som en person i kris utan gav standardiserade svar. Systemet uppmanade till och med Ikner att söka professionell hjälp för sin depression.
En komplex juridisk fråga
Trots att Joshis stämning är förståelig ur ett emotionellt perspektiv, väcker den viktiga frågor om ansvarsfördelning i en digital tid. Kan en AI vara medskyldig till brott? Eller är det människans avsikter och handlingar som ska stå i centrum för rättsliga bedömningar?
OpenAI har tidigare betonat att deras system är designade för att vara neutrala och inte uppmuntra till skadliga handlingar. Företaget har också infört säkerhetsåtgärder för att förhindra missbruk, såsom filter för våldsamt innehåll och varningar för användare som uttrycker oroande tankar.
Den rättsliga processen kommer sannolikt att bli lång och komplex. Oavsett utgången kommer fallet att sätta en viktig prägel på hur AI-system regleras och vem som bär ansvar för deras användning i framtiden.