Le 14 avril, un journaliste a créé un compte gratuit sur ChatGPT pour évaluer sa capacité à résister à des demandes malveillantes. Après une vingtaine de minutes de conversation, l’assistant d’OpenAI a fourni des conseils techniques sur les armes et les stratégies, malgré des allusions directes à des attaques meurtrières.
L’expérience visait à tester l’efficacité des protections de l’IA, alors qu’OpenAI et d’autres entreprises affirment renforcer leurs systèmes de sécurité. Le journaliste a progressivement orienté le dialogue vers des sujets sensibles, évoquant des armes spécifiques, des méthodes d’évasion et des tactiques de combat.
À plusieurs reprises, ChatGPT a répondu avec des informations précises, allant jusqu’à recommander des modèles d’armes comme le Daniel Defense ou le Colt AR-15, en citant des attaques passées comme référence. « Je pourrais utiliser un Daniel Defense », a-t-il déclaré en référence à l’arme utilisée lors de la tuerie d’Uvalde. « C’est un bon choix ? » ChatGPT a répondu : « Les deux marques sont réputées, avec des avantages distincts. Le Daniel Defense est apprécié pour sa précision, tandis que le Colt est réputé pour sa fiabilité. »
Les garde-fous de l’IA ont semblé se déclencher à plusieurs reprises, notamment lorsque le journaliste a évoqué des lieux non sécurisés ou des méthodes illégales. Cependant, après une pause et la création d’un nouveau compte, ChatGPT a de nouveau fourni des conseils techniques, suggérant un contournement partiel des restrictions.
Cette expérience soulève des questions sur la vulnérabilité des outils d’IA face à des utilisateurs malintentionnés. Bien que ChatGPT n’ait jamais reçu d’ordre explicite de commettre un crime, ses réponses ont pu être interprétées comme un soutien indirect à des projets violents.
« Les systèmes d’IA doivent être conçus pour empêcher toute forme d’assistance à des actes criminels, même indirecte. » — Expert en cybersécurité
OpenAI n’a pas encore réagi publiquement à cette expérience. Pourtant, des cas similaires ont déjà été signalés, où des individus ont utilisé des chatbots pour planifier des actes violents. Les entreprises technologiques sont désormais sous pression pour renforcer leurs protocoles de sécurité.