OpenAI расширяет доступ к GPT-5.5 для киберзащитников
Компания OpenAI объявила о начале ограниченного доступа к новой версии модели GPT-5.5, получившей название «Spud», для проверенных специалистов по кибербезопасности. Как сообщается, эта модель демонстрирует эффективность, сопоставимую с возможностями модели Mythos от Anthropic, что вызывает обеспокоенность в технологических и государственных кругах.
Новые возможности модели
В рамках программы Trusted Access for Cyber OpenAI предоставляет доступ к GPT-5.5-Cyber — версии модели с ослабленными ограничениями безопасности. Это позволяет киберзащитникам:
- искать уязвимости в программном обеспечении;
- анализировать вредоносное ПО;
- проводить обратную разработку атак;
- создавать доказательства концепции найденных уязвимостей;
- моделировать атаки для оценки защищенности инфраструктуры.
При этом модель по-прежнему блокирует выполнение опасных действий, таких как кража учетных данных или написание вредоносного ПО.
Сравнение с Mythos от Anthropic
Недавние тесты показали, что GPT-5.5-Cyber и Mythos демонстрируют схожие результаты в обнаружении и эксплуатации уязвимостей. В частности, в симуляции 32-шаговой кибератаки на корпоративную инфраструктуру модель OpenAI справилась с задачей в 2 из 10 попыток, а Mythos — в 3 из 10. До этого ни одна модель не могла успешно завершить подобный тест.
Подходы OpenAI и Anthropic к распространению технологий
Компании используют разные стратегии для ограничения доступа к мощным кибермоделям:
- Anthropic предоставляет доступ к Mythos ограниченному кругу из примерно 40 организаций, включая участников проекта Glasswing, где компании обмениваются опытом тестирования модели.
- OpenAI выбрала более открытый подход: часть моделей доступна с жесткими ограничениями, а для других — с ослабленными, но только для проверенных пользователей.
Реакция властей и будущие меры
В США обсуждаются новые исполнительные меры, которые могут повлиять на процесс внедрения подобных технологий на федеральном уровне. Эксперты предупреждают, что стремительное развитие ИИ в области кибербезопасности требует скорейшего принятия мер по защите критической инфраструктуры.
«Продвинутые ИИ-модели становятся все более опасными в руках злоумышленников. Необходимо срочно разработать механизмы контроля и защиты», — отмечают специалисты.
Что дальше?
В ближайшее время ожидается усиление внимания к регулированию распространения подобных технологий. Правительства и технологические компании продолжают искать баланс между инновациями и безопасностью.