Un modèle d'IA trop puissant pour être public

Anthropic, une entreprise pionnière dans le domaine de l'intelligence artificielle, a annoncé ce mois-ci que son dernier modèle, Claude Mythos Preview, ne serait accessible qu'à un nombre limité d'entreprises pour des raisons de sécurité. Conçu initialement pour un usage général, ce modèle s'est révélé exceptionnellement efficace pour détecter des failles critiques dans les systèmes de sécurité logicielle.

Des capacités de cybersécurité alarmantes

Lors des tests, Claude Mythos Preview a démontré une capacité à identifier des vulnérabilités majeures dans presque tous les systèmes d'exploitation. Une telle puissance, si elle tombait entre de mauvaises mains, pourrait permettre à des pirates de cartographier les failles de systèmes hautement protégés, comme ceux des grandes entreprises technologiques ou des institutions financières.

Face à ce risque, Anthropic a décidé de ne pas rendre ce modèle accessible au grand public. À la place, il est distribué dans le cadre du projet Glasswing, un programme restreint à une poignée de grandes entreprises technologiques et de banques. L'objectif ? Leur permettre de renforcer leurs défenses avant que des cybercriminels ne puissent exploiter ces failles.

Les entreprises concernées

Parmi les organisations sélectionnées figurent des géants comme Nvidia, JP Morgan Chase et Google, ainsi qu'une quarantaine d'autres acteurs clés dans le maintien des infrastructures logicielles critiques.

Comment fonctionne ce modèle d'IA ?

Claude Mythos Preview a été conçu comme un modèle polyvalent, similaire aux autres IA générales. Cependant, sa particularité réside dans sa capacité à analyser et signaler des vulnérabilités spécifiques dans les systèmes informatiques.

Par exemple, une entreprise comme Google Chrome pourrait l'utiliser pour identifier des failles potentielles dans des composants spécifiques de son navigateur. Le modèle génère une liste des vulnérabilités détectées, que les équipes de sécurité peuvent ensuite corriger. Ironiquement, un pirate informatique pourrait utiliser le même outil pour exploiter ces failles avant qu'elles ne soient corrigées.

Une décision controversée mais nécessaire

« Ils ont réalisé qu'ils ne pouvaient pas le rendre public, car cela pourrait tomber entre de mauvaises mains. Au lieu de cela, ils l'ont réservé à quelques organisations responsables des infrastructures critiques pour qu'elles puissent combler ces lacunes. »

— Sean Rameswaram, co-animateur de Today, Explained, interviewant Hayden Field, journaliste spécialisé en IA pour The Verge

Cette approche soulève des questions sur l'équilibre entre innovation technologique et sécurité. Alors que l'IA progresse à un rythme effréné, les entreprises doivent désormais évaluer soigneusement les risques liés à des outils aussi puissants avant de les déployer à grande échelle.

Source : Vox