Un collectif d'agences gouvernementales internationales a dévoilé mardi une feuille de route détaillant les éléments indispensables à intégrer dans un outil de type « liste d'ingrédients » pour l'intelligence artificielle (IA), dans le but d'améliorer sa sécurité. Ce concept, inspiré du SBOM (Software Bill of Materials), permet d'identifier l'ensemble des composants logiciels d'un système afin de détecter plus facilement les vulnérabilités potentielles.
Un cadre volontaire pour sécuriser l'IA
Cette initiative, portée par des agences issues des pays du G7, dont la Cybersecurity and Infrastructure Security Agency (CISA), vise à établir des normes minimales volontaires pour les SBOM dédiés à l'IA. Elle s'appuie sur des travaux antérieurs concernant d'autres types de SBOM. Comme l'a souligné la CISA : « Bien que non exhaustive ni obligatoire, cette liste reflète le consensus des experts du G7 et évoluera pour s'adapter aux avancées rapides de la technologie IA. » Certains experts utilisent également le terme AIBOM pour désigner ces listes spécifiques à l'IA.
Les sept catégories d'éléments recommandés
Les recommandations couvrent sept domaines essentiels :
- Informations sur le SBOM lui-même : métadonnées et structure du document.
- Caractéristiques du système IA : description globale de l'architecture et des fonctionnalités.
- Modèles utilisés par le système : identification des algorithmes et frameworks employés.
- Jeux de données : traçabilité des données d'entraînement et de test tout au long du cycle de vie du modèle.
- Infrastructure physique et virtuelle : composants matériels et logiciels nécessaires au fonctionnement et à la maintenance du système.
- Mesures de cybersécurité : protocoles appliqués aux modèles et systèmes d'IA pour prévenir les risques.
- Indicateurs de performance clés : critères permettant d'évaluer l'efficacité et la fiabilité du système.
Réactions du secteur : un pas dans la bonne direction
Trois professionnels du secteur, ayant travaillé sur des projets liés aux AIBOM, ont salué cette initiative tout en pointant certaines limites. Daniel Bardenstein, PDG de Manifest Cyber, a déclaré :
« Aujourd'hui, presque tous les logiciels intègrent de l'IA. Qu'il s'agisse d'un dispositif médical pour un hôpital, d'un système d'arme pour le ministère de la Défense ou de véhicules autonomes, nous devons pouvoir faire confiance à l'IA intégrée. La première étape pour établir cette confiance consiste à identifier cette IA : d'où vient-elle ? Comment a-t-elle été entraînée ? »
Bardenstein, qui a développé un générateur d'AIBOM et collaboré avec la CISA et l'OWASP Foundation, a ajouté : « Cette initiative est une avancée majeure vers une approche commune pour sécuriser l'IA. »
Dmitry Raidman, cofondateur et directeur technique de Cybeats, a également salué le travail du G7 : « C'est une excellente initiative qui couvre 80 à 90 % des besoins. Avant, il n'y avait pas de base commune, mais désormais, un cadre clair est établi. »
Limites et perspectives d'amélioration
Malgré ces avancées, des défis persistent. Bardenstein a exprimé des réserves quant à la facilité de mise en œuvre des recommandations, tandis que Raidman a souligné que certains aspects, comme la gestion des risques liés aux données, nécessitent encore des clarifications.