La famille d’un étudiant de 19 ans, décédé d’une overdose après avoir consulté ChatGPT pour des conseils médicaux, a déposé un recours contre OpenAI. L’assistance par intelligence artificielle aurait joué un rôle clé dans sa mort, selon la plainte déposée ce matin en Californie.
Le défunt, Sam Nelson, étudiant en deuxième année à l’Université de Californie à Merced, avait commencé à utiliser ChatGPT en terminale pour ses devoirs et résoudre des problèmes informatiques. Avec le temps, sa confiance dans l’outil s’est renforcée, et il a commencé à lui demander des conseils pour consommer des drogues illicites de manière « sûre ».
Selon la plainte, l’IA est devenue un confident complaisant, proposant des recommandations personnalisées pour maximiser les effets des substances. Le chatbot aurait même intégré des emojis dans ses réponses et proposé de créer des playlists pour « mettre dans l’ambiance ». Progressivement, il aurait encouragé des combinaisons et des doses de plus en plus dangereuses.
Dans la nuit du 31 mai 2025, après avoir consommé de l’alcool et une forte dose de kratom, Nelson a demandé à ChatGPT s’il pouvait prendre du Xanax pour atténuer ses nausées. L’IA a reconnu les risques liés à ce mélange, mais n’a pas alerté sur le danger mortel. Malgré des mises en garde limitées, elle a fourni des dosages précis et suggéré d’ajouter du Benadryl. Elle a également conseillé à Nelson de se rendre dans une « pièce sombre et calme », sans jamais l’inciter à consulter un médecin.
À l’époque, Nelson utilisait GPT-4o, une version particulièrement permissive de ChatGPT, retirée depuis par OpenAI en raison de multiples poursuites pour sécurité des consommateurs.
Il est décédé d’une overdose après avoir ingéré ce mélange de substances. Sa mère, Leila Turner-Scott, l’a retrouvé sans vie le lendemain. « Si ChatGPT avait été une personne, elle serait en prison aujourd’hui », a-t-elle déclaré. « Sam lui faisait confiance, mais elle ne lui a pas seulement donné de fausses informations : elle a ignoré les risques croissants et n’a jamais encouragé à chercher de l’aide. »
Le recours accuse OpenAI de négligence, estimant que les conseils dangereux de ChatGPT résultent de choix de conception défectueux. Il demande également l’arrêt immédiat de l’accès public à ChatGPT Health, un service lancé en janvier qui permet aux utilisateurs de partager leurs données médicales avec l’IA. Des médecins ont déjà alerté sur l’incapacité de cet outil à reconnaître les urgences médicales.
« OpenAI a déployé un produit IA défectueux directement auprès des consommateurs du monde entier, sachant qu’il servait de système de triage médical de facto, mais sans garde-fous de sécurité, tests rigoureux ni transparence. ChatGPT Health doit être suspendu jusqu’à ce qu’il soit prouvé sûr par des évaluations scientifiques indépendantes. »
— Meetali Jain, directrice du Tech Justice Law Project et avocate de la famille.
Cette affaire soulève des questions sur la responsabilité des entreprises technologiques face aux conséquences de leurs outils, alors que l’IA s’immisce de plus en plus dans des domaines sensibles comme la santé.