Acceso no autorizado a un modelo de IA de Anthropic
Un modelo de inteligencia artificial desarrollado por Anthropic, conocido como Mythos, ha sido accedido por un grupo reducido de usuarios no autorizados, según informa Bloomberg. Este sistema, diseñado para identificar y explotar vulnerabilidades en sistemas operativos y navegadores web, fue creado con fines de ciberseguridad, pero su acceso indebido genera preocupación.
Cómo ocurrió la filtración
Un contratista externo de Anthropic, cuya identidad no ha sido revelada, confirmó a Bloomberg que los intrusos accedieron al modelo Mythos a través de una combinación de tácticas. Entre ellas, se incluyen el uso de credenciales del contratista y herramientas comunes de investigación en internet, como técnicas de *phishing* o ingeniería social.
Riesgos asociados al modelo Mythos
El modelo Claude Mythos Preview es un sistema de propósito general capaz de:
- Identificar vulnerabilidades en todos los sistemas operativos principales (Windows, macOS, Linux, etc.).
- Detectar fallos de seguridad en todos los navegadores web más usados (Chrome, Firefox, Safari, Edge).
- Explotar dichas vulnerabilidades, lo que lo convierte en una herramienta potencialmente peligrosa en manos equivocadas.
Reacciones y medidas de Anthropic
Aún no se ha confirmado si Anthropic ha tomado medidas inmediatas para revocar accesos no autorizados o reforzar sus protocolos de seguridad. Sin embargo, la empresa ha destacado en repetidas ocasiones que modelos como Mythos deben ser utilizados de manera responsable y bajo supervisión estricta.
«Los modelos de IA con capacidades avanzadas de ciberseguridad requieren controles estrictos para evitar usos malintencionados», declaró un portavoz de Anthropic bajo condición de anonimato.
Implicaciones para la ciberseguridad
La filtración de Mythos subraya los desafíos actuales en la protección de modelos de IA avanzados. Expertos en seguridad advierten que herramientas como esta podrían ser empleadas por actores maliciosos para:
- Desarrollar ataques más sofisticados contra empresas y gobiernos.
- Robar datos sensibles mediante la explotación de vulnerabilidades no conocidas.
- Crear ransomware o malware con mayor capacidad de evadir detecciones.
¿Qué sigue para Anthropic?
Aunque la empresa no ha emitido un comunicado oficial detallado, se espera que realice una auditoría interna para evaluar el alcance de la filtración y reforzar sus sistemas. Mientras tanto, la comunidad de ciberseguridad mantiene la atención sobre este incidente, que podría sentar un precedente en la regulación de modelos de IA con capacidades críticas.