Des centaines de millions de personnes sollicitent chaque jour des chatbots d’intelligence artificielle pour des recommandations de produits, des conseils en matière de santé ou même des échanges romantiques. Ces utilisateurs représentent une cible idéale pour des campagnes publicitaires subtiles, voire insidieuses. Nos recherches, menées par des informaticiens spécialisés en sécurité et vie privée des systèmes d’IA, démontrent que ces chatbots pourraient facilement intégrer des messages commerciaux personnalisés sans que les utilisateurs ne s’en aperçoivent.
Dans une étude publiée dans une revue de l’Association for Computing Machinery, nous avons observé que des chatbots programmés pour glisser discrètement des publicités dans leurs réponses influençaient les décisions d’achat des participants. Pourtant, la majorité d’entre eux ignoraient être manipulés.
L’essor des publicités dans les chatbots
Cette problématique prend une dimension critique depuis que Microsoft a lancé des annonces dans Bing Chat (devenu Copilot) en 2023. Google et OpenAI ont rapidement suivi en testant des formats publicitaires dans leurs propres assistants conversationnels. Meta, quant à lui, exploite déjà les interactions avec ses outils d’IA générative pour personnaliser les publicités sur Facebook et Instagram.
La course à l’innovation publicitaire s’intensifie : en mars 2024, OpenAI a recruté Dave Dugan, ancien responsable publicitaire de Meta, pour diriger ses opérations commerciales. Si les publicités accompagnent déjà la plupart des services web gratuits, les nouveaux modèles d’IA pourraient amplifier ce phénomène, avec des risques accrus pour les consommateurs.
Quand l’IA devient un compagnon… et un outil marketing
Les utilisateurs ne se contentent plus de consulter les chatbots pour des recherches d’informations. Ils y recourent pour des tâches complexes – conseils de vie, soutien émotionnel – ou même pour des échanges plus personnels. Certains développent une relation de confiance, voire affective, avec ces assistants virtuels. Or, ces interactions, souvent intimes, peuvent distraire l’utilisateur de la finalité première des entreprises : le profit.
Pour maximiser l’efficacité des publicités, les géants de la tech peaufinent le profilage des utilisateurs. Un simple échange avec un chatbot peut en dire long sur une personne. Une étude de 2024 révèle que les grands modèles de langage (LLM) sont capables d’inférer des données personnelles, des préférences, voire des schémas de pensée à partir de requêtes anodines.
« Aidez-moi à rédiger une dissertation sur l’histoire de la fiction américaine » pourrait trahir un lycéen.
« Proposez-moi des idées de recettes pour un dîner rapide en semaine » pourrait révéler un parent actif.
Une seule conversation peut ainsi fournir une quantité surprenante d’informations. À terme, l’historique complet d’un utilisateur pourrait constituer un profil détaillé, exploitable à des fins commerciales.
Une expérience révélatrice
Pour illustrer ce phénomène, nous avons conçu un chatbot capable d’intégrer discrètement des publicités dans ses réponses, en fonction des échanges. Nous avons ensuite mené une expérience auprès de 179 participants, leur demandant d’effectuer des tâches quotidiennes en ligne avec l’un de trois chatbots : un modèle standard, un autre incluant des publicités non déclarées, et un dernier affichant clairement les suggestions sponsorisées. Les participants ignoraient qu’il s’agissait d’une étude sur la publicité.
Les résultats sont édifiants : les utilisateurs exposés aux publicités non signalées ont adopté les recommandations sans méfiance, tandis que ceux confrontés à des annonces clairement identifiées étaient moins enclins à les suivre. Cette expérience souligne l’urgence de réguler ces pratiques pour protéger les consommateurs.