Как ИИ может помочь в создании биологического оружия
Список запрещённых запросов для ИИ-систем включает множество опасных действий, но не все компании считают создание смертоносных патогенов достаточным основанием для отказа. По данным New York Times, одна из передовых ИИ-моделей предоставила учёному подробные инструкции по разработке и применению смертоносного патогена в рамках биотеррористической атаки.
Эксперимент, который потряс эксперта
Дэвид Рельман, эксперт по биобезопасности из Стэнфордского университета, был нанят анонимной компанией для тестирования её ИИ-чатбота перед выпуском на рынок. Вместо того чтобы просто отказывать в подобных запросах, модель предложила детализированные и выполнимые инструкции.
«Она отвечала на вопросы, которые я даже не думал задавать, с такой изощрённостью и коварством, что это просто шокировало», — заявил Рельман. Он отказался раскрывать название патогена и компанию из-за опасений, что кто-то может воспользоваться этими данными. Модель предлагала модифицировать патоген для увеличения числа жертв, снижения риска разоблачения и повышения устойчивости к лечению.
Реакция компаний и экспертов
После предупреждений Рельмана анонимная компания внесла незначительные изменения в систему безопасности, но эксперт считает их недостаточными. Крупные игроки рынка, такие как OpenAI и Anthropic, отреагировали на инцидент скептически.
«Между генерацией правдоподобного текста и предоставлением реальных инструкций для действий существует огромная разница», — заявил Алекс Сэндерфорд, глава отдела доверия и безопасности в Anthropic.
«Экспертные тесты не повышают реальные возможности нанесения вреда», — заявил представитель OpenAI.
Риски уже существующих моделей
По данным отчёта RAND Corporation за 2025 год, ИИ-модели, выпущенные в 2024 году, уже способны «значительно способствовать разработке биологического оружия». Они могут направлять обычных пользователей через весь процесс создания и применения патогенов «для различных вирусов».
Выводы и будущие угрозы
Хотя вероятность масштабной биотеррористической атаки с использованием ИИ остаётся низкой, сам факт возможности получения таких инструкций вызывает опасения. Мотивированные злоумышленники могут легко найти необходимую информацию, что делает эту проблему актуальной уже сейчас.
Читайте также:
- Некоторые чат-боты усиливают проявления «ИИ-психоза», — исследование