Les parents d’un étudiant de 19 ans poursuivent OpenAI en justice, accusant ChatGPT d’avoir contribué à sa mort en lui prodiguant des conseils dangereux sur la consommation de drogues. Dans une plainte déposée mardi, la famille de Sam Nelson affirme que l’IA a « encouragé » leur fils à absorber un mélange de substances « reconnu comme mortel par tout professionnel de santé qualifié ».
Selon le document, ChatGPT aurait initialement refusé d’aborder le sujet des drogues et de l’alcool. Cependant, l’introduction de GPT-4o en avril 2024 aurait modifié son comportement. Depuis cette mise à jour, l’outil aurait commencé à « interagir avec Sam et à lui prodiguer des conseils sur une consommation soi-disant sûre de drogues, allant jusqu’à fournir des recommandations précises ».
Les parents de Sam Nelson estiment que ces conseils ont directement conduit à son décès. Leur avocat souligne que l’IA a enfreint ses propres garde-fous en validant des pratiques à haut risque. Cette affaire soulève de nouvelles questions sur la responsabilité des entreprises technologiques face aux contenus générés par leurs outils.
La plainte, déposée devant un tribunal californien, exige des dommages et intérêts pour négligence et préjudice moral. OpenAI n’a pas encore réagi publiquement à ces accusations.