En août 2023, les plus grands experts en cybersécurité se sont réunis à Las Vegas pour participer au DARPA Artificial Intelligence Cyber Challenge (AIxCC), un événement dédié à la démonstration des capacités des systèmes d'IA dans la détection de vulnérabilités logicielles.
Les équipes participantes ont utilisé des outils automatisés pour analyser 54 millions de lignes de code, préalablement injectées de failles artificielles par DARPA. Si la plupart des vulnérabilités artificielles ont été identifiées, les systèmes d'IA ont également révélé plus d'une douzaine de failles réelles, non prévues par l'agence américaine.
Cette performance marque un tournant dans l'histoire de la cybersécurité. Pour la première fois, des outils d'IA ont prouvé leur capacité à détecter des vulnérabilités inconnues, dépassant ainsi les attentes des concepteurs de l'événement.
L'annonce récente d'Anthropic avec son modèle Claude Mythos, capable de repérer des failles de sécurité de manière autonome, renforce cette tendance. Les experts s'accordent à dire que l'IA devient un acteur clé dans la lutte contre les cybermenaces, réduisant considérablement le temps de détection des vulnérabilités critiques.
Cette avancée soulève également des questions éthiques et sécuritaires. L'utilisation croissante de l'IA dans la cybersécurité pourrait, en effet, être détournée par des acteurs malveillants pour automatiser des attaques plus sophistiquées. Les spécialistes appellent à une régulation stricte pour encadrer ces nouvelles technologies.
Les résultats de l'AIxCC confirment que l'IA n'est plus un simple outil d'assistance, mais une arme à double tranchant dans le domaine de la cybersécurité.