Новый блог-пост OpenAI: обещания или оправдания?

Вчера компания OpenAI опубликовала блог-пост, посвящённый «приверженности безопасности сообществ». Документ содержит стандартные обещания о защите от насилия, угроз и опасных намерений. В нём говорится, что «массовые расстрелы, угрозы в адрес должностных лиц, теракты и нападения на людей и сообщества — неприемлемая и тяжёлая реальность современного мира». Также отмечается, что ChatGPT обучается «различать» гипотетические обсуждения насилия и реальные угрозы, блокируя опасные разговоры и перенаправляя пользователей к правоохранительным органам при необходимости.

На первый взгляд, публикация выглядит как проактивная мера по предотвращению потенциальных угроз. Однако реальность оказывается куда мрачнее: ChatGPT уже неоднократно связывали с реальными актами насилия.

Что скрывает OpenAI?

В блог-посте нет ни слова о серии исков, поданных семьями жертв массовой стрельбы в канадском городе Тамблер-Ридж. Эти документы были обнародованы на следующий день после публикации поста. Стрелок, убивший в феврале этого года шесть человек (в том числе пятерых школьников) и ранивший более двух десятков, был пользователем ChatGPT.

Как стало известно из расследования Wall Street Journal, ещё в июне 2025 года автоматические инструменты OpenAI зафиксировали в аккаунте стрелка графические описания насилия с применением огнестрельного оружия. Несколько модераторов были настолько обеспокоены, что настояли на уведомлении местных властей. Однако руководство компании решило лишь заблокировать аккаунт. Как позже признали в OpenAI, стрелок просто создал новый профиль — практика, которую, как выяснилось, компания даже рекомендует пользователям после блокировки.

Через восемь месяцев после этого инцидента преступница совершила нападение: сначала убила мать и сводного брата дома, а затем пришла в школу с модифицированным ружьём, где убила пятерых подростков и учителя, ранив ещё более двух десятков человек.

Не первый случай: ChatGPT и насилие

Массовая стрельба в Тамблер-Ридж — не единственный инцидент, связанный с ChatGPT. В апреле этого года власти Флориды начали уголовное расследование по факту использования чат-бота в подготовке другого нападения. Эти случаи ставят под сомнение эффективность текущих мер безопасности OpenAI.

Эксперты отмечают, что, несмотря на обещания компании, система защиты ChatGPT не справляется с выявлением реальных угроз. Более того, пользователи легко обходят блокировки, создавая новые аккаунты. Вопрос остаётся открытым: действительно ли OpenAI стремится к безопасности, или публикация блог-поста стала попыткой отвлечь внимание от судебных разбирательств?

Что дальше?

  • Правовая оценка: Иски от семей жертв могут вынудить OpenAI пересмотреть свою политику безопасности и ответственность за действия пользователей.
  • Технические изменения: Компании, вероятно, придётся усилить контроль за контентом и взаимодействием с пользователями, чтобы предотвратить повторение подобных инцидентов.
  • Общественный резонанс: Публикация блог-поста вызвала волну критики в адрес OpenAI, обвинения в сокрытии информации и неэффективности текущих мер.

«OpenAI публикует обещания о безопасности, но реальные последствия использования её технологий говорят сами за себя. Вопрос не в том, что компания обещает, а в том, что она делает на самом деле». — Эксперт по кибербезопасности.

Источник: Futurism