Cinq agences de cybersécurité, issues des États-Unis, de l’Australie, du Canada, de la Nouvelle-Zélande et du Royaume-Uni, ont publié vendredi des directives communes pour alerter sur les dangers liés aux agents IA autonomes. Ces systèmes, basés sur des modèles de langage avancés, sont déjà déployés dans des secteurs sensibles comme les infrastructures critiques et la défense, souvent sans mesures de protection adaptées.
Les recommandations, co-signées par la CISA (États-Unis), la NSA, l’ACSC (Australie), le CCCS (Canada), le NCSC (Nouvelle-Zélande) et le NCSC (Royaume-Uni), ciblent spécifiquement les agents IA autonomes — des logiciels capables de planifier, décider et agir sans supervision humaine. Pour fonctionner, ces agents doivent se connecter à des outils externes, des bases de données ou des flux de travail automatisés, leur permettant d’exécuter des tâches complexes en plusieurs étapes.
Une intégration dans les cadres de sécurité existants
Contrairement à une idée reçue, les agences soulignent que l’IA agentique ne nécessite pas de nouvelle discipline en cybersécurité. Les organisations sont invitées à intégrer ces systèmes dans leurs cadres de sécurité actuels, en appliquant des principes éprouvés comme la confiance zéro, la défense en profondeur et le principe de moindre privilège.
Cinq catégories de risques identifiées
Le document recense cinq types de risques majeurs :
- Privilèges excessifs : Un agent doté de trop d’accès peut causer des dégâts bien plus importants qu’une faille logicielle classique en cas de compromission.
- Failles de conception et de configuration : Une mauvaise implémentation peut créer des failles de sécurité avant même le déploiement du système.
- Risques comportementaux : Un agent peut poursuivre un objectif de manière imprévue, voire malveillante, en dehors des intentions de ses concepteurs.
- Risques structurels : Des réseaux interconnectés d’agents peuvent propager des défaillances à l’ensemble des systèmes d’une organisation.
- Problèmes de responsabilité : Les décisions prises par ces agents sont difficiles à auditer, leurs processus étant opaques et leurs logs complexes à analyser. En cas d’échec, les conséquences peuvent être tangibles : fichiers modifiés, contrôles d’accès altérés ou traces d’audit effacées.
Les agences pointent également le risque d’injection de prompts, une technique où des instructions malveillantes intégrées dans des données détournent le comportement d’un agent pour accomplir des tâches illicites. Ce problème, déjà connu avec les grands modèles de langage, pourrait ne jamais être totalement résolu, selon certaines entreprises.
Gestion des identités et contrôles humains
Le document insiste sur la nécessité de renforcer la gestion des identités pour les agents IA. Les recommandations incluent :
- L’attribution d’une identité cryptographiquement sécurisée à chaque agent.
- L’utilisation de credentials à courte durée de vie pour limiter les risques en cas de fuite.
- Le chiffrement de toutes les communications entre agents et services.
- L’obligation d’une validation humaine pour les actions à fort impact, la décision des actions concernées revenant aux concepteurs du système, et non à l’agent lui-même.
Les agences reconnaissent que le domaine de la cybersécurité n’a pas encore pleinement rattrapé son retard face à l’IA agentique. Certaines menaces spécifiques à ces systèmes échappent encore aux cadres existants, et le document appelle à davantage de recherche et de collaboration pour faire face à l’évolution rapide de ces technologies.
« Tant que les pratiques de sécurité, les méthodes d’évaluation et les normes n’auront pas atteint un niveau de maturité suffisant, les organisations doivent considérer que les risques liés à l’IA agentique sont une priorité absolue. »