La empresa Anthropic, conocida por su enfoque en la seguridad de la inteligencia artificial, enfrenta un revés tras admitir que su modelo Claude Mythos —cuya capacidad en ciberseguridad se consideraba demasiado peligrosa para liberar públicamente— fue accesible para un grupo no autorizado incluso antes de su lanzamiento oficial.

Según información de Bloomberg, un «pequeño grupo de usuarios no autorizados» tuvo acceso al sistema desde el mismo día en que Anthropic anunció planes para ofrecer Mythos a un grupo selecto de empresas con fines de prueba. La compañía ha confirmado que está investigando el incidente, lo que pone en duda su capacidad para garantizar la confidencialidad de sus desarrollos más sensibles.

Este suceso contrasta con la imagen pública de Anthropic, que ha construido su reputación precisamente en torno a la seguridad y el control estricto de sus modelos de IA. La filtración se produce tras la revelación inicial de Mythos a través de una fuga de información, lo que añade mayor gravedad al fallo en sus protocolos de protección.

El incidente ha generado escepticismo sobre la efectividad de los mecanismos de seguridad de Anthropic, especialmente cuando el modelo se promocionaba como una herramienta demasiado poderosa para ser liberada masivamente. Ahora, la empresa deberá demostrar cómo logró que un sistema tan «peligroso» cayera en manos equivocadas antes incluso de su despliegue controlado.

Fuente: The Verge