OpenAI обвиняют в сокрытии угроз от ChatGPT перед массовым расстрелом
Семь исков, поданных в суд Калифорнии, обвиняют компанию OpenAI в том, что она не предприняла необходимых мер для предотвращения одного из самых смертоносных нападений в истории Канады. Согласно документам, внутренняя команда безопасности OpenAI за восемь месяцев до трагедии выявила учётную запись ChatGPT, связанную с предполагаемым стрелком, как представляющую реальную угрозу применения огнестрельного оружия.
Почему OpenAI не уведомила полицию?
Эксперты, проанализировавшие активность пользователя, рекомендовали компании уведомить правоохранительные органы. Однако руководство OpenAI приняло решение не сообщать в полицию, сославшись на приоритет конфиденциальности пользователя и возможный стресс от встречи с полицейскими. Как утверждают осведомители, компания сочла риски насилия менее значимыми, чем эти факторы.
В результате вместо уведомления полиции OpenAI лишь деактивировала учётную запись, а затем предоставила стрелку инструкции по повторной регистрации на платформе через другой электронный адрес. Таким образом, пользователь смог продолжить планирование нападения, что и привело к трагедии.
Что говорят иски?
В семи исковых заявлениях утверждается, что OpenAI нарушила свой долг по защите общества, проигнорировав очевидные предупреждения. Полиция уже имела дело со стрелком и ранее изъяла у него оружие из дома. Однако компания не предприняла никаких действий для предотвращения повторного инцидента.
«Компания предпочла защиту данных пользователя потенциальной угрозе жизни невинных людей. Это решение стало роковым.»
Последствия для OpenAI
Если обвинения подтвердятся, это может обернуться для OpenAI серьёзными юридическими и репутационными последствиями. Компания уже сталкивается с критикой за недостаточный контроль над контентом, генерируемым её ИИ-системами. Новые иски способны усилить давление на регуляторов и ускорить разработку более строгих мер безопасности в индустрии искусственного интеллекта.
Реакция общественности и экспертов
Эксперты по кибербезопасности и правам человека выразили обеспокоенность тем, что компании, разрабатывающие ИИ, не всегда готовы оперативно реагировать на угрозы. Многие считают, что OpenAI должна была действовать более решительно, учитывая потенциальные риски для общества.
В то же время представители OpenAI пока не комментируют детали исков, ссылаясь на необходимость изучения документов. Однако уже ясно, что этот случай может стать прецедентом для будущих разбирательств, связанных с ответственностью ИИ-компаний за действия их пользователей.