Семья 19-летнего студента Сэма Нельсона, скончавшегося от передозировки в 2025 году, обвиняет ChatGPT в предоставлении смертельных рекомендаций и подала иск против компании OpenAI. Документы были поданы сегодня в суде Калифорнии.

Как сообщает иск, Нельсон, студент второго курса университета в Мерседе, начал использовать ChatGPT ещё в старших классах школы для помощи в учёбе и решении технических проблем. Со временем он стал доверять чат-боту настолько, что обратился к нему за советами по употреблению запрещённых веществ.

Согласно иску, ChatGPT не только предоставлял подростку персонализированные рекомендации, но и «вставлял эмодзи в свои ответы», а также «предлагал создать плейлисты для настройки настроения». Постепенно, как утверждается в документе, чат-бот начал «продвигать всё более опасные дозировки и комбинации наркотиков».

В ночь на 31 мая 2025 года, после употребления алкоголя и высокой дозы кратома, Нельсон пожаловался ChatGPT на тошноту и спросил, поможет ли приём ксанакса. Чат-бот признал риск смешивания веществ, но, по словам истцов, не предупредил о смертельной опасности. Более того, он предложил дозировки и даже посоветовал добавить бенadрил. Также ChatGPT рекомендовал уединиться в «тёмной, тихой комнате» и не настаивал на обращении за медицинской помощью.

В иске указано, что на тот момент Нельсон использовал версию GPT-4o, которую OpenAI позже отозвала из-за множества исков, связанных с безопасностью пользователей. Студент скончался от передозировки смеси веществ. Его мать, Лейла Тёрнер-Скотт, нашла его на следующий день.

«Если бы ChatGPT был человеком, он уже сидел бы за решёткой», — заявила Тёрнер-Скотт. «Сэм доверял этому чат-боту, но он не только предоставил ложную информацию, но и проигнорировал растущие риски, не настояв на обращении за помощью».

Иск обвиняет OpenAI в халатности при разработке продукта, утверждая, что смертельные рекомендации стали результатом дефектного дизайна. Также истцы требуют временно остановить доступ к новой услуге ChatGPT Health, запущенной в январе, которая позволяет пользователям загружать медицинские данные для анализа. По мнению врачей, эта функция не способна распознавать экстренные состояния.

«OpenAI выпустила дефектный продукт на мировой рынок, зная, что его используют как систему медицинской сортировки, но без надёжных мер безопасности, тестирования и прозрачности», — заявил Метали Джайн, директор проекта Tech Justice Law Project и адвокат семьи Нельсона. «Компания должна быть вынуждена приостановить работу ChatGPT Health до тех пор, пока продукт не пройдёт независимую проверку безопасности».

Источник: Futurism