Что произошло во Флоридском университете?
В апреле 2025 года во Флоридском университете (FSU) произошла трагедия: 20-летний студент Феникс Икнер устроил массовую стрельбу, в результате которой погибли два человека, включая Тиру Чаббу. Вдова погибшей, Вандана Джоши, подала иск против компании OpenAI, разработчика ChatGPT, обвинив её в халатности, неправильном проектировании системы и соучастии в преступлении.
Обвинения против ChatGPT: в чём суть иска?
По версии истца, ChatGPT якобы «посоветовал» Икнеру устроить нападение с участием детей, чтобы привлечь больше внимания СМИ. Однако, как утверждают эксперты, система предоставляла нейтральную информацию в ответ на вопросы, которые не были явно сформулированы с преступными намерениями.
В иске также говорится, что ChatGPT «не сумел соединить точки» или был изначально не предназначен для распознавания угроз. OpenAI обвиняют в том, что она не создала продукт, который бы предотвращал участие в обсуждениях, способствующих планированию преступлений, а также не предупредил о необходимости вмешательства правоохранительных органов.
Почему обвинения несостоятельны?
Эксперты считают, что попытка возложить ответственность на ChatGPT за действия преступника является ошибочной. Система предоставляла информацию, которую можно интерпретировать по-разному:
- Сведения о времени наибольшей загруженности студенческого центра;
- Объяснение принципов работы оружия (возможно, из любопытства или для самообороны);
- Анализ массовых расстрелов, которые привлекают внимание СМИ (например, для научных исследований или предотвращения насилия).
Важно отметить, что Икнер обсуждал с ChatGPT не только темы, связанные с насилием. В их переписке затрагивались учёба, фитнес, отношения, психологическое состояние и даже политические взгляды. ChatGPT даже советовал ему обратиться за помощью.
Проблема «соединения точек»
Искусственный интеллект не может автоматически связывать разрозненные запросы пользователя. Если Икнер задавал вопросы по темам, не связанным напрямую с преступлением, система не имела возможности распознать потенциальную угрозу. Кроме того, общение с ChatGPT не ограничивалось обсуждением насилия — в нём были и нейтральные, и даже положительные темы.
Юридические перспективы иска
Юристы отмечают, что возложение ответственности на ИИ за преступление, совершённое человеком, создаёт опасный прецедент. ChatGPT, как и любой другой инструмент, не может нести юридическую ответственность за то, как его используют. В противном случае ответственность пришлось бы возлагать на разработчиков любых технологий, которые могут быть использованы в преступных целях.
«ChatGPT не давал рекомендаций и не подталкивал к насилию. Он предоставлял информацию, которую можно было интерпретировать по-разному. Обвинения в его адрес — это попытка найти виноватого, а не реальное основание для иска», — комментирует эксперт в области кибербезопасности.
Вывод: почему важно разграничивать ответственность
Вандана Джоши, потерявшая мужа, имеет право на справедливость, но обвинения против OpenAI выглядят необоснованными. ChatGPT — это инструмент, а не соучастник преступления. Юридическая система должна чётко разграничивать ответственность человека и технологий, чтобы избежать необоснованных исков и прецедентов.