Les chatbots et les générateurs de mèmes ne sont que la partie émergée de l'iceberg de l'intelligence artificielle. Selon une étude récente publiée dans la revue Science, les grands modèles de langage (LLM) et les agents autonomes pourraient bien servir de nouvelles sources de désinformation à grande échelle.
Les chercheurs ont analysé la capacité de ces technologies à manipuler l'opinion publique à l'échelle d'une population entière. Leur principale préoccupation ? Les essaims d'IA : des réseaux massifs d'outils autonomes capables de se faire passer pour des humains sur internet et les réseaux sociaux.
Les données disponibles montrent que la manipulation organisée sur les réseaux sociaux a progressé de manière alarmante. En 2017, elle concernait 28 pays. Aujourd'hui, elle touche 70 pays, des Philippines aux États-Unis en passant par l'Irlande et le Brésil. Dans ces deux derniers pays, des campagnes de désinformation alimentées par l'IA ont déjà ciblé des élections, mettant en lumière la vulnérabilité des institutions démocratiques face à ces nouvelles menaces, de plus en plus sophistiquées.
« En combinant le raisonnement des LLM avec des architectures multi-agents, ces systèmes peuvent coordonner leurs actions de manière autonome, infiltrer des communautés et fabriquer un consensus de façon efficace », met en garde l'abstract de l'étude.
Un défi juridique et éthique
La régulation de ces interférences soulève des questions complexes. Faut-il considérer les réseaux de propagande automatisés comme une forme de liberté d'expression ? Certains de ces réseaux de bots opèrent déjà ouvertement, sous forme de startups lucratives, attirant des millions de dollars de la part d'investisseurs en capital-risque.
Avant même l'essor de l'IA, l'émergence de plateformes sociales peu ou pas régulées avait déjà créé un terreau fertile pour les campagnes de désinformation à grande échelle. Les conséquences de ces manipulations ont souvent été dramatiques, comme en témoigne le génocide des Rohingyas au Myanmar, facilité par Facebook.
Les prémices d'une ère de désinformation automatisée
Les premières manifestations de ces campagnes de désinformation alimentées par l'IA sont déjà visibles. Elles prennent souvent la forme de discours de haine, comme ceux tenus par des acteurs d'extrême droite ciblant les bénéficiaires de l'aide sociale ou les migrants.
Quelles que soient les conséquences futures de ces manipulations, une chose est certaine : le terrain a été préparé depuis des années. Pourtant, la volonté politique de faire marche arrière semble remarquablement faible.
Pour aller plus loin :
- IA et éthique : Des militants dénoncent les tactiques insidieuses des géants de la tech pour implanter des centres de données sur des terres autochtones.