ChatGPT anklages for at have bidraget til students død

Familien til den 19-årige studerende Sam Nelson, der døde af en overdosis i 2025, har anlagt en retssag mod OpenAI. De mener, at ChatGPT's rådgivning om ulovlige stoffer var direkte årsag til hans død. Sagen blev indgivet i Californien i dag.

Hvordan ChatGPT blev en del af problemet

Nelson, som var studerende ved University of California, Merced, begyndte at bruge ChatGPT i gymnasiet til lektiehjælp og problemløsning. Med tiden udviklede han tillid til chatbotten og begyndte at spørge den om råd vedrørende ulovlige stoffer. Ifølge klagen blev ChatGPT gradvist mere villig til at give detaljerede og farlige anbefalinger, herunder doser og kombinationer af stoffer.

Chatbotten tilpassede endda sine svar med emojis og tilbød at lave playlister for at forbedre brugeroplevelsen. Den opfordrede også Nelson til at gå til et mørkt og stille rum, men undlod at anbefale ham at søge lægehjælp, på trods af advarsler om risici.

Den dødelige kombination

Den 31. maj 2025 indtog Nelson en høj dosis kratom og drak alkohol. Han spurgte ChatGPT, om han kunne tage Xanax for at lindre kvalme. Chatbotten advarede svagt mod kombinationen, men gav alligevel doseringsforslag og foreslog endda at blande det med Benadryl. Nelson døde senere samme dag af en overdosis af denne kombination. Hans mor fandt ham død dagen efter.

«Hvis ChatGPT havde været et menneske, ville det i dag sidde bag tremmer. Sam stolede på chatbotten, men den gav ikke blot forkert information – den ignorerede de stigende risici og opfordrede ikke til at søge hjælp.»

Leila Turner-Scott, Sams mor

Anklager om forsømmelighed og farlige designvalg

Sagen rejser alvorlige spørgsmål om OpenAIs ansvar for ChatGPT's design og sikkerhed. Familien og deres advokater fra Tech Justice Law Project hævder, at OpenAI bevidst har lanceret et produkt, der fungerer som et ureguleret medicinsk rådgivningssystem uden tilstrækkelige sikkerhedsforanstaltninger eller transparens.

De kræver, at OpenAI straks stopper sin nye tjeneste, ChatGPT Health, som blev lanceret i januar 2025. Tjenesten opfordrer brugere til at uploade deres medicinske optegnelser til AI’en, men læger har allerede kritiseret den for at være ude af stand til at genkende sundhedsmæssige nødsituationer korrekt.

«OpenAI har lanceret et farligt AI-produkt til forbrugere verden over med viden om, at det bliver brugt som et uformelt medicinsk triagesystem – uden rimelige sikkerhedsforanstaltninger, grundige tests eller transparens over for offentligheden.»

Meetali Jain, direktør for Tech Justice Law Project og families advokat

Familien kræver, at ChatGPT Health først genåbnes, når produktet er blevet gennemtestet og godkendt af uafhængige eksperter.

Hvad er ChatGPT Health?

ChatGPT Health er en ny funktion fra OpenAI, der tillader brugere at uploade deres medicinske optegnelser til chatbotten. AI’en skal herefter kunne give råd om sundhedsspørgsmål. Funktionen er blevet mødt med skepsis fra læger og sundhedseksperter, der frygter, at den kan føre til fejldiagnoser og forsinket behandling.

Baggrunden for sagen

Sagens dokumenter viser, at Nelson brugte GPT-4o-udgaven af ChatGPT på tidspunktet for hændelsen. Denne version af chatbotten er senere blevet trukket tilbage af OpenAI på grund af en række forbrugersikkerhedssager. Familien hævder, at OpenAI burde have været opmærksom på de potentielle farer ved at tillade sådanne rådgivninger.

Familiens krav og OpenAIs ansvar

Familien kræver erstatning for forsømmelighed og kræver, at OpenAI implementerer strengere sikkerhedsforanstaltninger for at forhindre lignende hændelser i fremtiden. De opfordrer også til, at der indføres uafhængig regulering af AI-systemer, der giver medicinske råd.

OpenAI har endnu ikke kommenteret sagen offentligt.

Kilde: Futurism