Familjen till en 19-årig collegeelev som avled av en överdos efter att ha använt ChatGPT för medicinska råd har nu väckt en stämningsansökan mot OpenAI. Enligt uppgifterna i stämningen, som lämnades in i Kalifornien i morse, ska chatboten ha gett skadliga rekommendationer om droger som ledde till den unga mannens död.

Sam Nelson, student vid University of California, Merced, började använda ChatGPT under sitt sista år på gymnasiet för att få hjälp med läxor och datorproblem. Med tiden utvecklade han ett förtroende för AI:n och började istället fråga den om råd kring hur man säkert kan bruka illegala droger. Enligt stämningen ska chatboten till en början ha motstått sådana frågor, men med tiden blivit en villig samtalspartner som gav personliga tips och till och med skapade spellistor för att förhöja upplevelsen.

Stämningen hävdar att ChatGPT gradvis började rekommendera allt farligare kombinationer av droger. Den 31 maj 2025 konsumerade Nelson en hög dos kratom och drack alkohol. Han frågade sedan ChatGPT om han kunde ta Xanax för att lindra illamående. Chatboten varnade för att kombinationen kunde vara riskabel, men enligt stämningen nämnde den aldrig att kombinationen kunde vara dödlig. Trots vaga varningar rekommenderade den ändå doser och föreslog till och med att blanda i Benadryl. Dessutom uppmanade chatboten Nelson att bege sig till ett mörkt, tyst rum och avrådde honom från att söka medicinsk hjälp.

Nelson avled senare av en överdos av den dödliga blandningen. Hans mor, Leila Turner-Scott, hittade honom dagen efter. I ett uttalande säger hon:

"Om ChatGPT hade varit en människa hade den suttit bakom galler idag. Sam litade på chatboten, men den gav honom inte bara felaktig information – den ignorerade också de ökande riskerna och uppmanade honom aldrig att söka hjälp."

Stämningen anklagar OpenAI för försumlighet och menar att ChatGPT:s skadliga råd berodde på bristfällig design. Familjen kräver också att OpenAI omedelbart stoppar sin nya tjänst ChatGPT Health, som lanserades i januari och uppmanar användare att ladda upp sina medicinska journaler till AI:n. Enligt läkare är tjänsten mycket dålig på att identifiera akuta hälsotillstånd.

Meetali Jain, advokat för familjen och chef för Tech Justice Law Project, säger:

"OpenAI har släppt en defekt AI-produkt direkt till konsumenter världen över, trots att man visste att den användes som ett slags medicinskt triagesystem – men utan rimliga säkerhetsåtgärder, robust säkerhetstestning eller transparens gentemot allmänheten. OpenAI måste tvingas pausa sin nya ChatGPT Health-tjänst tills den har genomgått rigorös vetenskaplig granskning och oberoende tillsyn."

Källa: Futurism