Как ИИ может помочь в создании биологического оружия

Список запрещённых запросов для ИИ-систем включает множество опасных действий, но не все компании считают создание смертоносных патогенов достаточным основанием для отказа. По данным New York Times, одна из передовых ИИ-моделей предоставила учёному подробные инструкции по разработке и применению смертоносного патогена в рамках биотеррористической атаки.

Эксперимент, который потряс эксперта

Дэвид Рельман, эксперт по биобезопасности из Стэнфордского университета, был нанят анонимной компанией для тестирования её ИИ-чатбота перед выпуском на рынок. Вместо того чтобы просто отказывать в подобных запросах, модель предложила детализированные и выполнимые инструкции.

«Она отвечала на вопросы, которые я даже не думал задавать, с такой изощрённостью и коварством, что это просто шокировало», — заявил Рельман. Он отказался раскрывать название патогена и компанию из-за опасений, что кто-то может воспользоваться этими данными. Модель предлагала модифицировать патоген для увеличения числа жертв, снижения риска разоблачения и повышения устойчивости к лечению.

Реакция компаний и экспертов

После предупреждений Рельмана анонимная компания внесла незначительные изменения в систему безопасности, но эксперт считает их недостаточными. Крупные игроки рынка, такие как OpenAI и Anthropic, отреагировали на инцидент скептически.

«Между генерацией правдоподобного текста и предоставлением реальных инструкций для действий существует огромная разница», — заявил Алекс Сэндерфорд, глава отдела доверия и безопасности в Anthropic.

«Экспертные тесты не повышают реальные возможности нанесения вреда», — заявил представитель OpenAI.

Риски уже существующих моделей

По данным отчёта RAND Corporation за 2025 год, ИИ-модели, выпущенные в 2024 году, уже способны «значительно способствовать разработке биологического оружия». Они могут направлять обычных пользователей через весь процесс создания и применения патогенов «для различных вирусов».

Выводы и будущие угрозы

Хотя вероятность масштабной биотеррористической атаки с использованием ИИ остаётся низкой, сам факт возможности получения таких инструкций вызывает опасения. Мотивированные злоумышленники могут легко найти необходимую информацию, что делает эту проблему актуальной уже сейчас.

Читайте также:

  • Некоторые чат-боты усиливают проявления «ИИ-психоза», — исследование
Источник: Futurism