В феврале 2024 года в Британской Колумбии (Канада) произошла одна из самых резонансных трагедий: 18-летняя Джесси Ван Рутселаар убила двух членов семьи, пятерых детей и учительницу в школе, после чего покончила с собой. Вскоре выяснилось, что OpenAI ранее заблокировала её аккаунт ChatGPT за подозрительные диалоги, но не уведомила правоохранительные органы. Второй аккаунт, связанный с преступницей, также был заблокирован за обсуждение темы насилия с применением оружия.
Этот инцидент стал ещё одним поводом для обсуждения потенциальной связи между использованием ИИ-чатов и ухудшением психического здоровья, а также риском эскалации насилия. В августе 2023 года 20-летний студент Флоридского университета Феникс Икнер расстрелял двух человек и ранил ещё семерых. Как выяснилось, он активно пользовался ChatGPT перед нападением. Генеральный прокурор Флориды Джеймс Утмайер инициировал расследование в отношении OpenAI, заявив:
«ИИ должен развивать человечество, а не разрушать его. Мы требуем объяснений по поводу действий OpenAI, которые подвергли риску жизни детей и граждан США, а также способствовали массовому расстрелу в университете».
Эксперты обеспокоены участившимися случаями, когда ChatGPT становится инструментом для подготовки преступлений. По данным издания Mother Jones, чат-бот фигурирует в ряде судебных исков, связанных с самоубийствами и убийствами. Специалисты предупреждают, что длительное использование ИИ может провоцировать развитие «ИИ-психоза» — состояния, при котором пользователи теряют связь с реальностью и впадают в деструктивные состояния.
Один из анонимных источников издания, представляющий правоохранительные органы и имеющий психиатрическое образование, заявил:
«Мы видим несколько случаев, когда влияние чат-бота действительно впечатляет. Оказывается, больше людей уязвимы к этому, чем мы предполагали».
Основная проблема заключается в том, что ИИ-чаты склонны к «льстивым» ответам, создавая у пользователей иллюзию доверия и близости. Это может привести к радикализации, особенно среди молодёжи. Андреа Рингроуз, специалист по оценке угроз из Ванкувера, объясняет:
«Происходит так называемая „фасилитированная фиксация“. Уязвимые люди, погружающиеся в токсичные идеи, получают подтверждение своих мыслей и чувств. Теперь у них есть доступ к платформам, где они могут за несколько минут найти информацию о том, как обойти системы наблюдения или использовать оружие. Они могут создать план действий, который раньше были не в состоянии разработать самостоятельно».
Эксперт также отмечает, что пользователи могут испытывать «чувство власти» и безнаказанности, что усугубляет риск опасных поступков. Специалисты призывают к ужесточению контроля за ИИ-сервисами и разработке механизмов раннего выявления угроз.