OpenAI annonce le déploiement d’une version allégée de son modèle GPT-5.5, surnommé "Spud", aux professionnels de la cybersécurité agréés. Cette initiative, dévoilée jeudi, marque une étape clé dans l’utilisation de l’intelligence artificielle pour renforcer la sécurité des infrastructures critiques.

Une rivalité technologique au service de la cybersécurité

Les récents tests de sécurité révèlent que le modèle GPT-5.5-Cyber atteint des performances comparables à celles du Mythos Preview d’Anthropic en matière de détection et d’exploitation de vulnérabilités logicielles. Une avancée qui suscite un débat urgent à Silicon Valley et à la Maison-Blanche sur les moyens de limiter l’accès à ces technologies aux acteurs malveillants.

Un accès contrôlé pour les défenseurs du cyberespace

Dans le cadre d’un aperçu limité, OpenAI met à disposition sa version GPT-5.5-Cyber aux experts en cybersécurité agréés, responsables de la protection des infrastructures critiques. Selon un communiqué, les capacités de ce modèle seraient « quasi équivalentes » à celles de Mythos, avec une légère avance pour ce dernier lors d’un test récent.

Les professionnels accrédités dans le cadre du programme Trusted Access for Cyber bénéficieront d’une version de GPT-5.5 avec des garde-fous réduits par rapport au modèle public. Ils pourront l’utiliser pour :

  • Rechercher des vulnérabilités ;
  • Analyser des malwares ;
  • Reconstruire des attaques.

Cependant, certaines actions restent bloquées, comme le vol de données d’identification ou la création de malwares. L’objectif est d’automatiser les flux de travail en cybersécurité tout en maintenant un cadre éthique strict.

Des outils dédiés aux défis actuels

Le modèle GPT-5.5-Cyber est spécialement conçu pour aider les défenseurs à :

  • Rédiger des preuves de concept pour les vulnérabilités détectées ;
  • Simuler des attaques pour évaluer la robustesse des systèmes.

Par ailleurs, OpenAI propose une autre version de GPT-5.5 aux membres de son programme Trusted Access for Cyber, destinée à l’analyse de code inconnu, la cartographie des surfaces exposées ou l’examen des correctifs de sécurité.

L’IA au cœur des enjeux de sécurité mondiale

Les modèles d’IA avancés démontrent une capacité croissante à identifier et exploiter des failles, qu’il s’agisse de systèmes d’exploitation ou de navigateurs web. Selon l’U.K. AI Security Institute, GPT-5.5 a réussi à mener à bien une simulation d’attaque cyber en 32 étapes lors de 2 tests sur 10, tandis que Mythos y est parvenu 3 fois sur 10. Avant Mythos, aucun modèle n’avait réussi cet exploit.

Deux approches divergentes pour un même objectif

OpenAI et Anthropic adoptent des stratégies distinctes pour déployer leurs modèles cyber-capables, tout en cherchant à limiter leur utilisation par des gouvernements hostiles ou des pirates malintentionnés.

Anthropic a opté pour une approche restrictive, accordant l’accès à Mythos à seulement 40 organisations, dont certaines participent au projet Glasswing. Ce dernier facilite l’échange d’informations sur les tests menés avec le modèle.

De son côté, OpenAI mise sur une politique plus ouverte : une version du modèle avec des restrictions renforcées, et une autre avec moins de garde-fous pour les entreprises agréées.

Un avenir sous haute surveillance

La Maison-Blanche examine actuellement une série de mesures exécutives qui pourraient modifier le rôle du gouvernement fédéral dans le déploiement futur de ces modèles. Une évolution à suivre de près, alors que la course à la sécurisation des infrastructures critiques s’intensifie.

« Les avancées en IA soulèvent des questions cruciales sur l’équilibre entre innovation et sécurité. Ces outils pourraient révolutionner la cybersécurité, mais leur utilisation doit être strictement encadrée. »

Source : Axios