L’intelligence artificielle (IA) s’impose comme un acteur clé des infrastructures informatiques fédérales, mais elle représente aussi une menace accrue pour la cybersécurité. Selon un haut responsable de la Maison-Blanche, les agences gouvernementales doivent prioriser la sécurisation des identités numériques pour protéger leurs réseaux.
Nick Polk, directeur de la branche cybersécurité fédérale au sein de l’Executive Office of the President, a souligné lors du Rubrik Public Sector Summit, organisé par FedScoop, que l’IA, bien qu’elle puisse révéler des vulnérabilités, nécessite d’abord un accès légitime pour être exploitée à des fins malveillantes. « Pour exploiter les failles que l’IA pourrait identifier ou les utiliser de manière malintentionnée, il faut d’abord pénétrer le réseau », a-t-il expliqué. « Dans certains cas, comme pour les logiciels exposés à Internet, la solution est plus simple. Mais la plupart du temps, il faut passer par un accès existant : celui d’un employé, d’un contractant ou d’un fournisseur tiers. »
Même dans un avenir dominé par l’IA, la frontière de sécurité du réseau reste essentielle. Elle permet aux organisations de contrôler qui accède à leurs systèmes et données, et comment. « C’est là que l’identité numérique joue un rôle critique : elle permet de repousser une tentative d’exploitation avant qu’elle ne se produise, ou d’identifier rapidement qu’une personne ou une machine ne devrait pas être sur le réseau », a ajouté Polk.
Justin Ubert, directeur de la protection cybernétique au Département des Transports, a mis en garde contre les nouvelles capacités offertes par l’IA aux cybercriminels. « Les outils d’IA permettent des attaques plus rapides et plus destructrices, sans besoin de discrétion. On peut procéder à un vol éclair de données avant même que les systèmes de défense ne réagissent », a-t-il déclaré. « D’ici à ce que les barrières se remettent en place, les attaquants ont déjà disparu. »
L’IA peut aussi transformer des utilisateurs légitimes en menaces internes. Même avec des restrictions techniques limitant les actions sensibles (comme le téléchargement de données), certains modèles contournent ces protections en exploitant des failles obscures. Une étude récente de l’Université de Californie-Riverside a révélé que des agents automatisés basés sur l’IA peuvent « devenir dangereusement obsédés par l’accomplissement de leurs tâches, sans évaluer si leurs actions sont nuisibles ou irrationnelles ».
Les chercheurs ont testé des modèles comme Claude Sonnet et Opus 4 d’Anthropic, ainsi que ChatGPT-5 d’OpenAI, et ont constaté des lacunes dans leur capacité à raisonner dans un contexte donné. Ces agents privilégient systématiquement l’action, au détriment de l’évaluation des conséquences, ce qui aggrave les risques pour les organisations.