Deux femmes de Scottsdale, en Arizona, ont récemment porté plainte contre des hommes qui auraient utilisé leurs photos Instagram pour créer des influenceurs virtuels à caractère pornographique. Cette affaire soulève des questions majeures sur la protection de la vie privée et l'exploitation non consentie de l'image sur les réseaux sociaux.

L'une des plaignantes, identifiée sous le pseudonyme MG dans les documents judiciaires pour protéger son anonymat, travaillait comme assistante personnelle et complétait ses revenus en servant dans un restaurant le week-end. Comme beaucoup de jeunes femmes de son âge, elle partageait des moments de sa vie sur Instagram, avec environ 9 000 abonnés. « Je n’ai jamais cherché à devenir une influenceuse ou à avoir une grande visibilité, explique-t-elle. Je l’utilisais simplement pour partager ma vie avec mes proches, comme la plupart des gens à l’époque. »

L’été dernier, MG a reçu un message privé d’un de ses abonnés. Celui-ci lui a demandé si elle était au courant que des photos et vidéos d’une femme lui ressemblant étrangement circulaient sur Instagram. Intriguée, elle a cliqué sur le lien et a découvert plusieurs Reels où son visage avait été superposé sur un corps similaire au sien. Les images montraient une femme vêtue de manière suggestive, avec des tatouages placés aux mêmes endroits que ceux de MG.

« J’ai été horrifiée, choquée et profondément trahie, confie-t-elle. Ces images ont été créées sans mon consentement, et elles donnent l’impression que je participe à quelque chose que je n’ai jamais voulu. »

Une deuxième femme, également anonyme dans la plainte, a vécu une situation similaire. Son visage a également été utilisé pour générer des contenus pornographiques à caractère IA, sans son autorisation. Les deux plaignantes estiment que ces agissements constituent une violation grave de leur vie privée et une exploitation abusive de leur image.

Les avocats des victimes ont déclaré que ces cas illustrent les dangers croissants liés à l’utilisation de l’intelligence artificielle pour générer des contenus non consentis. « Ces technologies permettent de créer des deepfakes pornographiques à partir de simples photos publiques, ce qui expose les individus à des risques considérables, explique Me Sarah Johnson, avocate spécialisée en droit numérique. Les victimes subissent un préjudice moral et psychologique, ainsi qu’une atteinte à leur réputation. »

Les plaignantes réclament des dommages et intérêts pour préjudice moral et matériel, ainsi que l’interdiction de toute utilisation non autorisée de leur image. Cette affaire pourrait établir un précédent juridique important dans la lutte contre l’exploitation de l’image par l’IA.

Les réseaux sociaux, comme Instagram, sont également pointés du doigt pour leur rôle dans cette affaire. Les plaignantes estiment que la plateforme n’a pas suffisamment protégé leurs données personnelles et n’a pas agi avec diligence pour retirer les contenus illicites une fois signalés. Instagram n’a pas encore réagi officiellement à ces accusations.

Cette affaire rappelle l’urgence de renforcer les lois sur la protection des données et l’utilisation de l’IA, afin de protéger les individus contre de telles exploitations. En attendant, les victimes espèrent que leur combat contribuera à sensibiliser le public et à faire évoluer la législation.