Une faille de sécurité avant même le lancement officiel

Anthropic, spécialiste de l'IA, voit son modèle Claude Mythos exposé avant sa sortie publique. Malgré les déclarations rassurantes sur sa dangerosité, un groupe non autorisé y a eu accès dès l'annonce de son déploiement limité à quelques entreprises.

Un modèle jugé trop dangereux pour le grand public

Anthropic avait insisté pendant des semaines sur la capacité exceptionnelle de Mythos en cybersécurité, le qualifiant de trop risqué pour une diffusion massive. Pourtant, selon Bloomberg, un groupe restreint d'utilisateurs non autorisés a pu y accéder dès le jour de l'annonce officielle.

Anthropic en pleine enquête

Face à cette faille, Anthropic a lancé une enquête interne pour comprendre comment cette exposition a pu se produire. Cette situation met en lumière les défis de sécurité liés aux modèles d'IA avancés, malgré les garanties de l'entreprise sur la protection des données.

Réactions et conséquences

Cette affaire soulève des questions sur la fiabilité des systèmes de contrôle d'Anthropic. Alors que l'entreprise se positionne comme un acteur majeur de la sécurité de l'IA, cet incident pourrait nuire à sa réputation. Les résultats de l'enquête sont attendus avec attention.

Source : The Verge