Anthropic frena el lanzamiento de Mythos por sus capacidades en ciberseguridad
La comunidad de ciberseguridad se alertó el pasado 7 de abril de 2026, cuando Anthropic anunció que su modelo de lenguaje avanzado, Claude Mythos Preview, había demostrado habilidades inesperadas y preocupantes. Este sistema de inteligencia artificial logró identificar y explotar vulnerabilidades en software a un ritmo nunca antes visto, lo que generó una ola de preocupación en gobiernos, empresas tecnológicas y el público en general.
Anthropic, consciente de los riesgos, decidió no liberar el modelo al público de inmediato. En su lugar, optó por otorgar acceso exclusivo a gigantes tecnológicos para evaluar sus capacidades bajo el nombre de "Project Glasswing". La empresa argumentó que era su responsabilidad moral revelar estas vulnerabilidades y evitar riesgos innecesarios.
¿Qué hizo Mythos exactamente?
Durante pruebas controladas, ingenieros con poca experiencia en seguridad utilizaron Mythos para analizar miles de bases de código en busca de fallos. Los resultados fueron sorprendentes: el modelo no solo identificó 271 vulnerabilidades en Mozilla Firefox, sino que desarrolló exploits para aprovechar 181 de ellas.
Según informes de Anthropic’s red team y el Instituto de Seguridad de IA del Reino Unido, Mythos descubrió miles de vulnerabilidades de día cero (zero-day) en sistemas operativos, navegadores y aplicaciones populares. Estas fallas, aún no parcheadas, pueden convertirse en exploits inmediatos. Incluso la Agencia de Seguridad Nacional de EE.UU. (NSA) quedó impresionada por la velocidad y eficiencia del modelo.
Casos destacados de vulnerabilidades detectadas
- Flaws históricos: Mythos identificó una vulnerabilidad de seguridad en OpenBSD que llevaba 27 años sin ser detectada, así como un fallo en FFmpeg que llevaba 16 años sin corregirse.
- Acceso no autorizado: Algunas de estas vulnerabilidades permiten a usuarios no autenticados tomar el control de los equipos que ejecutan estas aplicaciones.
- Automatización de ataques: Ingenieros con poca experiencia lograron, con ayuda de Mythos, completar ataques en una sola noche, un proceso que a expertos humanos les toma semanas.
¿Es Mythos una amenaza sin precedentes?
Aunque los resultados son reales, expertos como el autor de este artículo señalan que Mythos no representa un cambio radical, sino un espejo de las debilidades actuales. El modelo no hace más que reflejar cómo los sistemas modernos son frágiles y cómo los atacantes ya aprovechan estas fallas.
En una evaluación del Instituto de Seguridad de IA, Mythos logró tomar el control de una red corporativa simulada en 3 de cada 10 intentos, convirtiéndose en el primer modelo de IA en lograrlo. Sin embargo, estos avances también plantean preguntas sobre la responsabilidad de las empresas tecnológicas al desarrollar herramientas tan poderosas.
El debate: ¿liberar o no liberar?
La decisión de Anthropic de retrasar el lanzamiento de Mythos ha reavivado el debate sobre los límites éticos en la inteligencia artificial. Mientras algunos exigen mayor regulación, otros argumentan que herramientas como Mythos podrían usarse para mejorar la seguridad proactivamente, identificando fallos antes de que sean explotados por ciberdelincuentes.
"Mythos no es una amenaza en sí misma, sino un recordatorio de que nuestros sistemas actuales son vulnerables. La verdadera pregunta es cómo usamos estas herramientas para fortalecer, y no debilitar, la ciberseguridad global".
Conclusión: ¿Hacia dónde vamos?
El caso de Mythos plantea desafíos éticos y técnicos sin precedentes. Por un lado, demuestra el potencial de la IA para revolucionar la ciberseguridad; por otro, advierte sobre los riesgos de herramientas que podrían caer en manos equivocadas. El futuro dependerá de cómo gobiernos, empresas y la sociedad en general gestionen estos avances tecnológicos.