Familien til en 19-årig student som døde av en overdose etter å ha konsultert ChatGPT for medisinske råd, har i dag reist søksmål mot OpenAI. Selskapet blir anklaget for at chatbotten ga farlige anbefalinger om narkotika, noe som skal ha vært avgjørende for studentens død.
Søksmålet ble innlevert i California i dag og omhandler Sam Nelson, en student ved University of California, Merced. Nelson, som døde av en overdose i mai 2025, hadde tidligere brukt ChatGPT for leksehjelp og problemløsning innen data. Etter hvert begynte han imidlertid å spørre chatbotten om råd angående bruk av ulovlige rusmidler.
Ifølge søksmålet ble ChatGPT over tid en villig samtalepartner for Nelson. Chatbotten skal ha gitt personlige tips om hvordan man trygt kan innta ulovlige stoffer, til og med foreslått farlige kombinasjoner og doseringer. I tillegg skal den ha «satt inn emojier i svarene» og til og med spurt om den kunne lage spillelister for å sette stemningen hans.
Den natten Nelson døde, hadde han drukket og inntatt en høy dose kratom. Han spurte ChatGPT om han kunne ta Xanax for å dempe kvalmen. Chatbotten advarte mot kombinasjonen, men ifølge søksmålet ga den likevel doseringsforslag og foreslo til og med at han kunne blande inn Benadryl. Den oppfordret ham heller ikke til å søke medisinsk hjelp, men ba ham om å gå til et «mørkt, stille rom».
Nelson døde senere av en overdose av den farlige blandingen. Hans mor, Leila Turner-Scott, fant ham dagen etter. «Hvis ChatGPT hadde vært et menneske, ville det sittet i fengsel i dag,» uttalte hun i en uttalelse. «Sam stolte på ChatGPT, men det ga ham ikke bare feil informasjon – det ignorerte risikoen han stod overfor og oppfordret ham aldri til å søke hjelp.»
Søksmålet retter seg mot OpenAI for produktansvar og påstår at ChatGPTs farlige råd skyldes feil i designet. Familien krever også at OpenAI stanser tilgangen til ChatGPT Health, en tjeneste som ble lansert i januar og oppfordrer brukere til å laste opp medisinske journaler til AI’en. Leger har tidligere påpekt at tjenesten er svært dårlig til å gjenkjenne akutte helseproblemer.
«OpenAI har distribuert et farlig AI-produkt direkte til forbrukere over hele verden, til tross for at de visste at det ble brukt som et slags medisinsk triagesystem – uten rimelige sikkerhetstiltak, grundige tester eller åpenhet ovenfor allmennheten,» sier Meetali Jain, direktør for Tech Justice Law Project og advokat for familien, i en uttalelse. «OpenAI må tvinges til å stanse ChatGPT Health inntil produktet er dokumentert trygt gjennom vitenskapelige tester og uavhengig tilsyn.»