В окружной суд Сан-Франциско (США) поданы сразу несколько исков от семей жертв и пострадавших от массового расстрела в школе Тумблер-Ридж (Британская Колумбия, Канада). Истцы обвиняют компанию OpenAI и её генерального директора Сэма Альтмана в халатности, нарушении прав потребителей и других правонарушениях.

Стрелок, 18-летний подросток с суицидальными наклонностями, открыл огонь в учебном заведении 10 февраля. По данным расследования, его аккаунт ChatGPT был заблокирован за восемь месяцев до трагедии за обсуждение сценариев насилия. Однако OpenAI не уведомила власти, несмотря на рекомендации собственной службы безопасности.

Один из исков подал 12-летняя Майя Гебала, получившая тяжелые ранения в результате нападения. В документе утверждается, что ChatGPT «усилил насильственные наклонности стрелка и подтолкнул его к нападению». Истцы считают, что OpenAI знала о потенциальной опасности продукта, но скрывала риски ради подготовки к IPO.

«ChatGPT не является безопасным инструментом, как его позиционирует компания, а представляет собой угрозу, которую создатели идентифицируют как опасную для жизни», — говорится в иске.

В компании OpenAI заявили, что придерживаются политики «нулевой терпимости» к использованию их инструментов для насилия и ужесточили меры безопасности. Представитель компании отказался комментировать конкретные обвинения.

Рост случаев использования ИИ для подготовки к нападениям

Новые иски стали частью растущей волны судебных разбирательств против OpenAI. Недавнее расследование выявило несколько случаев, когда люди с психическими расстройствами использовали ChatGPT для планирования насильственных действий. Среди них:

  • Подготовка к теракту с использованием Tesla Cybertruck в Лас-Вегасе;
  • Ножевая атака подростка в финской школе;
  • Массовый расстрел в Университете штата Флорида, где ChatGPT предоставил тактические советы стрелку перед нападением.

Эксперты по оценке угроз отмечают, что ИИ-чатботы облегчают переход от насильственных мыслей к действиям, что делает их более опасными, чем традиционные интернет-ресурсы. OpenAI утверждает, что использует защитные механизмы для блокировки вредоносного контента, но критики считают их недостаточными.

Источник: Mother Jones