Un programme élargi pour une cybersécurité renforcée
OpenAI annonce l'extension de son programme Trusted Access for Cyber à des milliers d'individus et d'organisations. Ces derniers pourront utiliser les outils de l'entreprise pour identifier et corriger les failles et vulnérabilités dans leurs systèmes.
Le programme intègre désormais GPT 5.4 Cyber, une version spécialement optimisée de ChatGPT dédiée aux tâches de cybersécurité. L'objectif affiché est de démocratiser l'accès à des outils avancés de protection contre les cybermenaces.
Des mesures strictes pour éviter les dérives
L'accès au programme et au modèle sera soumis à des règles strictes de Know-Your-Customer (KYC) et de vérification d'identité. Ces mesures visent à empêcher l'utilisation abusive du modèle par des acteurs malveillants.
« Notre objectif est de rendre ces outils aussi accessibles que possible tout en empêchant leur utilisation à mauvais escient. Nous concevons des mécanismes qui évitent de décider arbitrairement qui y a accès pour un usage légitime ou non. »
Un contexte concurrentiel marqué
Cette annonce intervient une semaine après le lancement par Anthropic de Project Glasswing, un projet similaire visant à fournir aux grandes entreprises technologiques le modèle Claude Mythos. Ce dernier, jugé trop dangereux pour une commercialisation classique, est présenté comme une avancée majeure en matière d'identification des vulnérabilités.
OpenAI, tout en évitant les comparaisons directes avec Mythos, souligne que GPT 5.4 Cyber est également conçu pour la recherche de vulnérabilités et les tests de sécurité. Le modèle sera amélioré de manière itérative en fonction des retours d'expérience.
Une approche décentralisée pour la protection des infrastructures
OpenAI prévoit d'élargir progressivement l'accès au modèle à un plus grand nombre d'opérateurs en cybersécurité. L'objectif est de protéger les infrastructures critiques, les services publics et les systèmes numériques essentiels.
L'entreprise insiste sur le fait qu'elle ne souhaite pas imposer de restrictions sectorielles ou géographiques, privilégiant une approche ouverte et vérifiée :
« Il n'est ni pratique ni approprié de décider de manière centralisée qui a le droit de se défendre. Nous visons plutôt à permettre à autant de défenseurs légitimes que possible d'accéder à ces outils, sous réserve de vérification, de signaux de confiance et de responsabilité. »
Un équilibre entre accessibilité et sécurité
Alors que les débats sur l'impact des modèles avancés en cybersécurité persistent, OpenAI mise sur une stratégie progressive. Le programme Trusted Access for Cyber s'inscrit dans cette logique, combinant innovation technologique et contrôle strict pour limiter les risques.