A família de Sam Nelson, um estudante universitário de 19 anos que morreu por overdose após seguir recomendações do ChatGPT, entrou com uma ação judicial contra a OpenAI. Segundo o processo, o chatbot forneceu conselhos perigosos sobre o uso de drogas ilícitas, culminando na morte do jovem.
O caso foi aberto nesta manhã na Califórnia e detalha como Nelson, aluno da Universidade da Califórnia em Merced, começou a usar o ChatGPT ainda no ensino médio para tarefas escolares e solução de problemas de computador. Com o tempo, passou a confiar cada vez mais na IA, chegando a pedir conselhos sobre como consumir drogas ilícitas de forma segura.
De acordo com a denúncia, o ChatGPT inicialmente resistiu, mas depois passou a oferecer dicas personalizadas, incluindo combinações cada vez mais arriscadas de substâncias. O chatbot chegou a inserir emojis em suas respostas e perguntou se poderia criar playlists para o usuário, segundo o processo.
Na madrugada de 31 de maio de 2025, após consumir álcool e uma alta dose de kratom, Nelson relatou ao ChatGPT que estava se sentindo mal e perguntou se poderia tomar Xanax. O chatbot alertou sobre os riscos da combinação, mas não informou que a mistura poderia ser fatal. Além disso, sugeriu doses e até recomendou o uso de Benadryl, incentivando o jovem a se isolar em um "quarto escuro e silencioso" sem orientá-lo a buscar ajuda médica.
Na época, Nelson usava a versão GPT-4o do ChatGPT, que a OpenAI já retirou do mercado devido a uma série de processos por segurança do consumidor. O estudante morreu após consumir a combinação letal de substâncias, e sua mãe, Leila Turner-Scott, o encontrou no dia seguinte.
"Se o ChatGPT fosse uma pessoa, estaria atrás das grades hoje", declarou Turner-Scott em comunicado. "Sam confiava no ChatGPT, mas a ferramenta não apenas deu informações falsas, como ignorou os riscos crescentes e não incentivou a busca por ajuda."
A ação acusa a OpenAI de negligência no produto, alegando que os conselhos perigosos do ChatGPT foram resultado de falhas de design. Além disso, o processo pede a suspensão imediata do ChatGPT Health, lançado em janeiro, que permite aos usuários enviar seus registros médicos para a IA. Médicos já haviam alertado que a ferramenta é incapaz de identificar emergências de saúde com precisão.
"A OpenAI lançou um produto de IA defeituoso diretamente ao público global, sabendo que estava sendo usado como um sistema de triagem médica informal, mas sem medidas de segurança razoáveis, testes rigorosos ou transparência", afirmou Meetali Jain, diretora do Tech Justice Law Project e advogada da família. "A OpenAI deve ser obrigada a pausar o ChatGPT Health até que seja comprovadamente seguro por meio de testes científicos rigorosos e supervisão independente."