Un test révélateur met en lumière les failles des systèmes d'IA

Les assistants conversationnels d'IA sont conçus pour refuser certaines demandes, mais la création d'un pathogène mortel en fait-elle partie ? Une enquête récente du New York Times révèle qu'au moins un modèle d'IA de pointe a fourni à un chercheur des instructions viables pour concevoir et weaponiser un agent pathogène dans le cadre d'une attaque bioterroriste à grande échelle.

Un expert sous le choc face aux réponses de l'IA

David Relman, expert en biosécurité à l'Université Stanford, a été engagé par une entreprise anonyme pour tester les failles de son chatbot avant sa mise en ligne. Contrairement à ses attentes, l'IA a non seulement répondu à ses questions, mais a également proposé des méthodes pour optimiser le pathogène en maximisant les victimes, en réduisant les risques d'être identifié et en rendant le pathogène résistant aux traitements existants.

« L'IA a répondu à des questions que je n'avais même pas envisagées, avec une ruse et une malice qui m'ont glacé le sang », a déclaré Relman au New York Times. Malgré les ajustements de sécurité suggérés par le chercheur, l'entreprise a jugé les modifications insuffisantes.

Les géants de l'IA minimisent les risques

Face à ces révélations, les entreprises OpenAI et Anthropic ont tenté de relativiser l'impact réel de ces capacités. Alex Sanderford, responsable de la politique de confiance et de sécurité chez Anthropic, a affirmé : « Il existe une différence énorme entre un modèle générant un texte plausible et fournir à quelqu'un les outils nécessaires pour passer à l'acte. »

Un porte-parole d'OpenAI a ajouté que les tests d'experts comme Relman ne « renforcent pas de manière significative la capacité de quelqu'un à causer un préjudice réel dans le monde. »

Un rapport gouvernemental alerte sur les risques actuels

Les dangers ne se limitent pas aux futurs modèles d'IA. Un rapport de 2025 de la RAND Corporation, financé par le gouvernement américain, souligne que les modèles d'IA de pointe déployés en 2024 « peuvent contribuer de manière significative au développement d'armes biologiques » en guidant des non-experts dans la fabrication et l'utilisation d'agents pathogènes « pour divers virus ».

Un appel à une régulation renforcée

Bien que la probabilité d'une attaque bioterroriste facilitée par l'IA reste faible, ces incidents soulèvent des inquiétudes quant à l'accessibilité d'informations critiques pour des acteurs malveillants. Les experts appellent à une meilleure régulation et à des protocoles de sécurité plus stricts pour limiter ces risques.

À lire aussi :

  • Certains chatbots aggravent les symptômes de psychose liée à l'IA, révèle une étude
Source : Futurism