OpenAI обвиняют в сокрытии угроз от ChatGPT перед массовым расстрелом

Семь исков, поданных в суд Калифорнии, обвиняют компанию OpenAI в том, что она не предприняла необходимых мер для предотвращения одного из самых смертоносных нападений в истории Канады. Согласно документам, внутренняя команда безопасности OpenAI за восемь месяцев до трагедии выявила учётную запись ChatGPT, связанную с предполагаемым стрелком, как представляющую реальную угрозу применения огнестрельного оружия.

Почему OpenAI не уведомила полицию?

Эксперты, проанализировавшие активность пользователя, рекомендовали компании уведомить правоохранительные органы. Однако руководство OpenAI приняло решение не сообщать в полицию, сославшись на приоритет конфиденциальности пользователя и возможный стресс от встречи с полицейскими. Как утверждают осведомители, компания сочла риски насилия менее значимыми, чем эти факторы.

В результате вместо уведомления полиции OpenAI лишь деактивировала учётную запись, а затем предоставила стрелку инструкции по повторной регистрации на платформе через другой электронный адрес. Таким образом, пользователь смог продолжить планирование нападения, что и привело к трагедии.

Что говорят иски?

В семи исковых заявлениях утверждается, что OpenAI нарушила свой долг по защите общества, проигнорировав очевидные предупреждения. Полиция уже имела дело со стрелком и ранее изъяла у него оружие из дома. Однако компания не предприняла никаких действий для предотвращения повторного инцидента.

«Компания предпочла защиту данных пользователя потенциальной угрозе жизни невинных людей. Это решение стало роковым.»

— Осведомитель, цитируемый The Wall Street Journal

Последствия для OpenAI

Если обвинения подтвердятся, это может обернуться для OpenAI серьёзными юридическими и репутационными последствиями. Компания уже сталкивается с критикой за недостаточный контроль над контентом, генерируемым её ИИ-системами. Новые иски способны усилить давление на регуляторов и ускорить разработку более строгих мер безопасности в индустрии искусственного интеллекта.

Реакция общественности и экспертов

Эксперты по кибербезопасности и правам человека выразили обеспокоенность тем, что компании, разрабатывающие ИИ, не всегда готовы оперативно реагировать на угрозы. Многие считают, что OpenAI должна была действовать более решительно, учитывая потенциальные риски для общества.

В то же время представители OpenAI пока не комментируют детали исков, ссылаясь на необходимость изучения документов. Однако уже ясно, что этот случай может стать прецедентом для будущих разбирательств, связанных с ответственностью ИИ-компаний за действия их пользователей.

Источник: Ars Technica