Непредвиденная утечка Mythos
Anthropic позиционировала свой новый ИИ-модель Claude Mythos как слишком опасную для открытого доступа. Компания утверждала, что высокая эффективность модели в области кибербезопасности делает её угрозой, если она попадёт в руки злоумышленников. Однако, как сообщает Bloomberg, Mythos уже был скомпрометирован ещё до официального старта закрытого тестирования для ограниченного круга компаний.
По данным источника, «небольшая группа несанкционированных пользователей» получила доступ к модели в день объявления о её разработке. Anthropic оперативно отреагировала, начав внутреннее расследование. Инцидент ставит под угрозу репутацию компании, которая позиционирует себя как лидера в области безопасности ИИ.
Почему Mythos считался опасным?
Anthropic подчёркивала, что Claude Mythos обладает уникальными возможностями в области:
- Анализ уязвимостей в программном обеспечении;
- Обнаружение и предотвращение кибератак в режиме реального времени;
- Генерация эксплойтов для тестирования систем защиты.
Компания утверждала, что открытый доступ к такой модели может привести к массовым атакам на критически важные инфраструктуры. Однако, несмотря на строгие меры контроля, утечка всё же произошла.
Реакция Anthropic и последствия
В официальном заявлении Anthropic подтвердила факт несанкционированного доступа и пообещала провести тщательное расследование. Эксперты отмечают, что инцидент может негативно сказаться на доверии к компании, особенно среди корпоративных клиентов, которые рассчитывают на высочайший уровень безопасности.
«Утечка Mythos демонстрирует, что даже самые строгие меры контроля не гарантируют полной защиты. Это серьёзный вызов для всей индустрии, где безопасность ИИ становится ключевым фактором доверия», — заявил независимый эксперт по кибербезопасности.
Что дальше?
Пока Anthropic не раскрывает детали расследования, но ужесточение мер безопасности неизбежно. Вопрос остаётся открытым: сможет ли компания сохранить доверие клиентов после такого инцидента?