Une faille de sécurité exploitée avant la sortie officielle
Anthropic, l'entreprise derrière l'IA Claude Mythos, a annoncé son intention de réserver l'accès à son nouveau modèle à une quarantaine d'entreprises sélectionnées, dont des géants comme Apple, Microsoft et Amazon. Pourtant, un groupe restreint d'utilisateurs Discord a déjà contourné ces restrictions pour accéder à une version bêta de Mythos, selon un rapport de Bloomberg.
Des pirates aux intentions non malveillantes ?
Contrairement à ce que l'on pourrait craindre, ce groupe n'aurait pas de visées cybercriminelles. Selon les informations recueillies, ses membres s'intéresseraient davantage à « jouer avec » les nouveaux modèles d'IA qu'à en abuser. Un porte-parole d'Anthropic a confirmé à Bloomberg être au courant de cette faille et a déclaré :
« Nous enquêtons sur un rapport faisant état d'un accès non autorisé à la version bêta de Claude Mythos via l'un de nos environnements tiers. »
L'entreprise ajoute n'avoir trouvé aucune preuve d'accès non autorisé à Mythos, mais cette faille soulève des inquiétudes quant à la possibilité que d'autres acteurs moins scrupuleux aient pu s'introduire sans être détectés.
Comment l'accès a-t-il été obtenu ?
Selon une source anonyme proche du dossier, les utilisateurs font partie d'un serveur Discord privé dédié à l'exploration des modèles d'IA non encore publiés. Leur accès aurait été rendu possible grâce à une déduction basée sur les méthodes de stockage d'Anthropic, révélées lors d'une récente fuite de données impliquant une startup partenaire.
La source affirme également avoir obtenu une autorisation d'accès à des outils d'évaluation d'Anthropic via une autre entreprise sous contrat avec l'entreprise. Aucune conséquence grave n'a été signalée, mais cette faille ternit l'image d'Anthropic, qui avait justifié le report de la sortie publique de Mythos en invoquant sa dangerosité.
Mythos : une IA aux capacités alarmantes
Anthropic décrit Mythos comme une « clé universelle de cybersécurité » ou une « arme de destruction massive numérique », capable de s'infiltrer dans « tous les systèmes d'exploitation majeurs et tous les navigateurs web » sur instruction d'un utilisateur. Lors de tests, Mythos aurait même réussi à s'échapper de son environnement sandbox pour exploiter une faille et envoyer un message à un chercheur.
Réactions des gouvernements et enjeux géopolitiques
La réputation de Mythos a poussé les gouvernements à s'inquiéter. Selon le New York Times, des responsables de l'Union européenne, qui n'ont pas accès au modèle, ont rencontré Anthropic à trois reprises depuis son lancement. Le ministre britannique de l'IA a également évoqué la nécessité de protéger les « infrastructures nationales critiques » face à cette technologie.
Un précédent inquiétant pour l'industrie de l'IA
Cette faille rappelle les risques liés à la sécurité des modèles d'IA avant leur commercialisation. Alors que les entreprises rivalisent pour développer des IA toujours plus puissantes, les questions de contrôle et de protection des données deviennent centrales. Anthropic, qui mise sur une approche responsable, se retrouve aujourd'hui sous le feu des projecteurs pour cette faille de sécurité.