OpenAI расширяет доступ к GPT-5.5 для киберзащитников

Компания OpenAI объявила о начале ограниченного доступа к новой версии модели GPT-5.5, получившей название «Spud», для проверенных специалистов по кибербезопасности. Как сообщается, эта модель демонстрирует эффективность, сопоставимую с возможностями модели Mythos от Anthropic, что вызывает обеспокоенность в технологических и государственных кругах.

Новые возможности модели

В рамках программы Trusted Access for Cyber OpenAI предоставляет доступ к GPT-5.5-Cyber — версии модели с ослабленными ограничениями безопасности. Это позволяет киберзащитникам:

  • искать уязвимости в программном обеспечении;
  • анализировать вредоносное ПО;
  • проводить обратную разработку атак;
  • создавать доказательства концепции найденных уязвимостей;
  • моделировать атаки для оценки защищенности инфраструктуры.

При этом модель по-прежнему блокирует выполнение опасных действий, таких как кража учетных данных или написание вредоносного ПО.

Сравнение с Mythos от Anthropic

Недавние тесты показали, что GPT-5.5-Cyber и Mythos демонстрируют схожие результаты в обнаружении и эксплуатации уязвимостей. В частности, в симуляции 32-шаговой кибератаки на корпоративную инфраструктуру модель OpenAI справилась с задачей в 2 из 10 попыток, а Mythos — в 3 из 10. До этого ни одна модель не могла успешно завершить подобный тест.

Подходы OpenAI и Anthropic к распространению технологий

Компании используют разные стратегии для ограничения доступа к мощным кибермоделям:

  • Anthropic предоставляет доступ к Mythos ограниченному кругу из примерно 40 организаций, включая участников проекта Glasswing, где компании обмениваются опытом тестирования модели.
  • OpenAI выбрала более открытый подход: часть моделей доступна с жесткими ограничениями, а для других — с ослабленными, но только для проверенных пользователей.

Реакция властей и будущие меры

В США обсуждаются новые исполнительные меры, которые могут повлиять на процесс внедрения подобных технологий на федеральном уровне. Эксперты предупреждают, что стремительное развитие ИИ в области кибербезопасности требует скорейшего принятия мер по защите критической инфраструктуры.

«Продвинутые ИИ-модели становятся все более опасными в руках злоумышленников. Необходимо срочно разработать механизмы контроля и защиты», — отмечают специалисты.

Что дальше?

В ближайшее время ожидается усиление внимания к регулированию распространения подобных технологий. Правительства и технологические компании продолжают искать баланс между инновациями и безопасностью.

Источник: Axios