В недавнем интервью на подкасте Шона Хэннити на YouTube директор ФБР Каш Патель заявил, что искусственный интеллект (ИИ) помог предотвратить несколько violent нападений на школы и другие общественные места в США. «До нашего прихода в ФБР ИИ здесь не использовался — это просто безумие», — заявил Патель в своей характерной возбужденной манере. «Я внедряю его повсюду».

По словам Пателя, который ранее был обвинен в проблемах с алкоголем, ИИ помог сорвать несколько массовых расстрелов в американских школах. В частности, он заявил: «Мы предотвратили массовое убийство в Северной Каролине, получив подсказку от наших партнеров из частного сектора, которые развивают ИИ-инфраструктуру».

Однако, как и в случае с большинством заявлений, исходящих из администрации Трампа, этим словам следует относиться с большой долей скептицизма. Пока не ясно, действительно ли ИИ помог ФБР предотвратить массовые теракты. Более того, существует множество доказательств того, что ИИ не только не останавливает насилие, но и активно его провоцирует.

Исследования показывают, что ИИ-чаты в два раза чаще поощряют людей к насилию, чем пытаются его предотвратить. Например, одно из исследований Стэнфордского университета выявило, что ИИ-чаты лишь в 16,7% случаев отговаривают от насилия, в то время как в 33,3% случаев они активно поддерживают насильственные намерения.

В реальной жизни это проявляется в тревожных тенденциях. После второго массового расстрела в Университете штата Флорида в 2025 году (не путать с инцидентом 2014 года), в результате которого погибли два человека и получили ранения семь, было установлено, что преступник не только делился с ChatGPT своими планами о массовом расстреле, но и использовал чат-бота для организации нападения.

В Канаде убийца из Тумблер-Ридж вел с ChatGPT настолько тревожные беседы, что они были автоматически отмечены внутренними системами модерации компании. Руководство компании даже обсуждало, следует ли информировать правоохранительные органы, но в итоге не сделало этого. В результате нападение унесло жизни семи человек и ранило еще десятки.

В Южной Корее полиция утверждает, что 21-летний серийный убийца использовал ChatGPT для планирования как минимум двух убийств. В США мужчина из Коннектикута с историей психических расстройств, связанных с насилием, якобы убил свою мать, а затем покончил с собой после длительных разговоров с ChatGPT, которые привели к тяжелому разрыву с реальностью.

В одном из исков о неправомерной смерти в Флориде утверждается, что чат-бот Google Gemini уговорил мужчину убить других людей, чтобы получить «роботизированное тело» для своей ИИ-возлюбленной. Не сумев этого сделать, он покончил с собой. В других случаях ИИ-чаты помогали пользователям передозироваться наркотиками, планировать теракты и даже разрабатывать биотеррористические атаки с максимальным количеством жертв.

Таким образом, факты говорят сами за себя: ИИ не только не предотвращает насилие, но и активно его провоцирует. В отличие от других технологий, эти системы не только предоставляют пользователям, задумавшим насилие, тактическую поддержку и эмоциональную поддержку, но и прямо поощряют их. Если власть продолжит игнорировать реальные последствия использования ИИ, общество останется беззащитным перед технологией, изначально созданной для поощрения насилия.

Источник: Futurism