L'ère de l'IA en cybersécurité : une révolution à encadrer

Les modèles d'intelligence artificielle développés par Anthropic et OpenAI, spécialisés en cybersécurité, démontrent des capacités remarquables pour identifier des vulnérabilités logicielles. Pourtant, leur utilisation optimale repose encore largement sur l'expertise humaine, selon les retours d'utilisateurs en conditions réelles.

Des outils puissants, mais pas autonomes

Lors du lancement de Mythos Preview, Anthropic avait prévenu que ce modèle était si performant qu'il avait détecté des dizaines de milliers de bugs sur presque tous les systèmes d'exploitation. Les tests indépendants confirment que GPT-5.5-Cyber d'OpenAI affiche des performances comparables, capable de repérer des failles et de générer des exploits. Ces avancées suscitent un vif intérêt auprès des entreprises et des gouvernements, soucieux d'anticiper les menaces futures.

Plusieurs adopteurs précoces ont partagé leurs expériences cette semaine. Palo Alto Networks a révélé avoir identifié 75 vulnérabilités en utilisant les modèles d'Anthropic et d'OpenAI, contre seulement 5 à 10 par mois habituellement. Les chercheurs soulignent également la capacité de ces outils à enchaîner des vulnérabilités mineures pour former des chaînes d'attaque exploitables.

Microsoft a annoncé mardi que son nouveau système de sécurité agentique, basé sur des modèles de pointe, avait découvert 16 nouvelles vulnérabilités dans la pile réseau et d'authentification de Windows. L'entreprise met en garde : les outils d'IA risquent d'augmenter le volume global de vulnérabilités détectées, exerçant une pression accrue sur les équipes de défense pour prioriser et corriger les failles plus rapidement.

Les limites des modèles d'IA en cybersécurité

Malgré leurs atouts, ces modèles présentent des lacunes majeures. XBOW, une startup spécialisée dans les tests d'intrusion par IA, a qualifié Mythos de « très puissant pour les audits de code source », mais a noté qu'il était « moins efficace pour valider les exploits ». Le modèle peut également se montrer « trop littéral et conservateur », surévaluant parfois l'importance pratique de ses découvertes.

Palo Alto Networks a observé un taux de faux positifs d'environ 30 % lors de ses tests avec Mythos, Opus 4.7 et GPT-5.5-Cyber. Ce taux a cependant diminué après avoir formé le modèle sur l'environnement spécifique à analyser. Daniel Stenberg, développeur principal du projet open source Curl, a confirmé que Mythos avait détecté une vulnérabilité mineure dans son code, accompagnée de plusieurs faux positifs et d'un problème jugé finalement sans importance.

L'humain, clé de la fiabilité

Les experts s'accordent sur un point : les modèles d'IA performant le mieux lorsqu'ils sont associés à des chercheurs en sécurité expérimentés. Ces derniers valident les résultats, orientent les analyses et distinguent les vulnérabilités exploitables du bruit. Cisco, qui a récemment publié un guide open source baptisé « Foundry Security Spec », insiste sur cette nécessité : « Un modèle de pointe produit des affirmations sur les vulnérabilités fluides, plausibles, mais erronées à un taux rendant les résultats non vérifiés inutiles ».

Plutôt que de simplement demander aux modèles d'être plus prudents, Cisco recommande de les instruire pour générer des affirmations « vérifiables ». Cette approche permet de réduire les erreurs et d'améliorer la pertinence des alertes.

« Les outils d'IA transforment la cybersécurité, mais leur efficacité dépend de l'expertise humaine pour interpréter et contextualiser leurs résultats. »
— Expert en cybersécurité, non nommé

Vers une collaboration homme-machine optimisée

Les entreprises et institutions doivent désormais repenser leur stratégie de cybersécurité pour intégrer ces nouveaux outils tout en maintenant un contrôle humain rigoureux. Les modèles d'IA, bien que prometteurs, ne peuvent remplacer entièrement l'intuition et l'expérience des professionnels du secteur.

Les défis à venir incluent la réduction des faux positifs, l'amélioration de la précision des détections et la formation des équipes à l'utilisation de ces technologies. Une chose est sûre : l'avenir de la cybersécurité passera par une synergie entre l'intelligence artificielle et l'expertise humaine.

Source : Axios