L’essor des influenceurs artificiels : le cas emblématique d’Emily Hart

Les faux comptes existent depuis l’avènement des réseaux sociaux. Pourtant, lorsqu’il a été révélé qu’Emily Hart, une prétendue influenceuse MAGA aux allures de "fille sexy", était en réalité un étudiant indien de 22 ans, l’affaire n’a pas semblé exceptionnelle. Un autre cas de catfishing, un autre manipulateur, un autre escroc… Sauf qu’Emily Hart disposait de photos, de vidéos et de milliers d’abonnés sur plusieurs plateformes, avec des publications atteignant des millions de vues. Elle n’était pas un simple compte anonyme, mais une influenceuse à part entière.

Son créateur, un étudiant sans ressources mais doté d’une bonne connaissance de la culture politique américaine et d’un compte Google Gemini, a avoué à Wired avoir généré des milliers de dollars par mois en publiant des vidéos softcore sur une plateforme concurrente d’OnlyFans, ainsi qu’en vendant des produits dérivés. Emily Hart n’était pas le fruit d’un développeur chevronné, mais d’un modèle d’IA accessible à tous.

Un modèle de tromperie facile à reproduire

L’affaire d’Emily Hart n’est pas un cas isolé. Elle illustre une tendance bien plus large : l’IA permet désormais de créer des personas en ligne convaincants à moindre coût et à grande échelle. D’autres influenceurs fictifs pro-Trump, comme Jessica Foster, ont également été identifiés. Pourtant, ces contenus synthétiques inondent les fils d’actualité, notamment sur Instagram, sans que leur origine artificielle ne soit toujours révélée.

Le modèle est simple : peu coûteux, rapide à mettre en place, rentable et facile à dupliquer. Toutes les grandes plateformes sociales disposent de politiques concernant les contenus générés par IA. Leurs règles, bien que variables, convergent vers un principe commun : les images synthétiques doivent être signalées, surtout lorsqu’elles peuvent être perçues comme réelles et concernent des sujets sensibles (politique, santé, finance, actualités). En cas de non-respect, les comptes risquent d’être gelés, démonétisés ou bannis. Pourtant, ces sanctions restent largement théoriques.

Des systèmes de détection dépassés par l’évolution de l’IA

L’application de ces règles se heurte à une réalité : la détection des contenus artificiels devient de plus en plus complexe. Les générateurs d’images actuels, bien plus performants que les premiers modèles, produisent des visuels quasi parfaits, sans artefacts visibles comme des doigts en trop ou des arrière-plans flous. Sans filigrane ou métadonnées explicites, même les outils automatisés peinent à distinguer une image réelle d’une création IA.

Les plateformes comme Meta ou X (ex-Twitter) s’appuient sur des algorithmes pour repérer les contenus trompeurs, mais ces systèmes sont régulièrement contournés. Les créateurs de faux profils exploitent les failles, tandis que les outils de détection peinent à suivre le rythme des avancées technologiques. Résultat : les utilisateurs sont souvent laissés dans l’ignorance quant à la nature réelle des images qu’ils consultent.

Le projet Content Credentials, une solution en suspens

Pour remédier à ce problème, un nouveau standard a été proposé : les Content Credentials. Ce système vise à tracer l’origine et les modifications d’une image tout au long de son cycle de vie, en intégrant ces informations dans ses métadonnées. Ainsi, les plateformes pourraient afficher des alertes claires lorsque le contenu est généré ou modifié par IA.

Pourtant, cette solution se heurte à plusieurs obstacles. D’abord, son adoption reste limitée, car elle repose sur la bonne volonté des créateurs de contenu et des plateformes. Ensuite, les métadonnées peuvent être facilement supprimées ou altérées. Enfin, les utilisateurs ne sont pas toujours sensibilisés à l’importance de ces informations, ce qui réduit l’efficacité du système.

« Les plateformes ont les outils pour lutter contre la désinformation, mais elles manquent de volonté politique ou commerciale pour les déployer pleinement. » — Expert en cybersécurité, cité par Wired

Que faire en tant qu’utilisateur ?

Face à cette situation, les utilisateurs doivent redoubler de vigilance. Voici quelques conseils pour limiter les risques :

  • Vérifier les sources : Privilégiez les comptes vérifiés et les médias reconnus pour les informations sensibles.
  • Utiliser des outils de vérification : Des extensions comme InVID ou Reverse Image Search permettent de retracer l’origine des images.
  • Rester critique : Méfiez-vous des profils trop parfaits ou des contenus sensationnalistes, surtout en période électorale ou de crise.
  • Signaler les contenus suspects : La plupart des plateformes permettent de signaler les faux profils ou les deepfakes.

Une responsabilité partagée

L’affaire d’Emily Hart soulève une question cruciale : qui est responsable de la lutte contre les contenus artificiels ? Les plateformes, les gouvernements et les utilisateurs ont chacun un rôle à jouer. Les réseaux sociaux doivent investir dans des outils de détection plus performants et appliquer leurs propres règles de manière stricte. Les législateurs pourraient renforcer les obligations légales en matière de transparence. Enfin, les internautes doivent adopter une posture critique face aux contenus en ligne.

Sans une action concertée, la frontière entre réalité et fiction continuera de s’estomper, laissant le champ libre aux manipulateurs. L’ère de l’IA ne fait que commencer, et son impact sur l’information n’a pas fini de nous surprendre.