L’essor des deepfakes médicaux : une crise de confiance et de sécurité
L’intelligence artificielle (IA) est désormais utilisée pour créer des deepfakes mettant en scène des médecins à leur insu. Ces vidéos, souvent destinées à promouvoir des produits douteux ou à diffuser de la désinformation, soulèvent des inquiétudes majeures au sein de la communauté médicale. Les professionnels réclament des lois renforcées pour protéger leur identité et garantir la transparence.
Un phénomène en expansion
Les médecins deviennent malgré eux les stars de ces vidéos truquées, qui ciblent des compléments alimentaires, des dispositifs médicaux non approuvés ou des conseils de santé non vérifiés. Selon le Dr John Whyte, directeur médical de l’American Medical Association (AMA), ce phénomène s’étend rapidement et touche un nombre croissant de professionnels.
« Cela devient de plus en plus courant. Tout le monde connaît quelqu’un qui en a été victime », a-t-il déclaré. « Il est probable que ces cas soient plus nombreux que ce que l’on rapporte, car les personnes concernées peuvent en avoir honte. »
Des victimes de renom
Parmi les personnalités touchées figure le Dr Sanjay Gupta, journaliste médical de CNN. Des deepfakes utilisant son image pour promouvoir des produits comme un prétendu traitement révolutionnaire contre la maladie d’Alzheimer ont même trompé certains de ses proches.
« Ce qui était différent cette fois, c’était la qualité exceptionnelle de ces publicités », a-t-il expliqué lors d’une interview pour l’émission Terms of Service de CNN. « C’était vraiment impressionnant. »
Des risques juridiques et sanitaires
Les médecins craignent d’être tenus pour responsables si des patients, influencés par ces deepfakes, utilisent des produits contrefaits ou suivent des conseils non validés. L’AMA a demandé des directives pour aider les professionnels ciblés à réagir et pour clarifier le rôle des assurances en cas de litige.
Les risques ne se limitent pas aux personnes. Les établissements de santé découvrent des images diagnostiques et des données cliniques falsifiées, capables de perturber gravement leurs opérations internes. Une étude récente publiée dans la revue Radiology révèle que la majorité des cliniciens échouent à détecter des radiographies truquées. Un quart des participants n’a même pas identifié les fausses images après avoir été alertés sur les signes caractéristiques, comme des textures de tissus anormalement lisses ou des surfaces osseuses trop parfaites.
Selon Mickael Tordjman, auteur principal de l’étude et chercheur à l’Icahn School of Medicine at Mount Sinai, ces falsifications pourraient servir à frauder des assureurs ou à alimenter des procédures judiciaires. « Il existe également un risque majeur de cybersécurité si des pirates informatiques parviennent à infiltrer le réseau d’un hôpital et à y injecter des images synthétiques pour manipuler les diagnostics ou semer le chaos clinique », a-t-il averti.
Des mesures urgentes réclamées
Face à cette menace, l’AMA a appelé les législateurs fédéraux et étatiques à combler les lacunes juridiques et à moderniser les protections d’identité. L’organisation exige également des sanctions contre les créateurs de deepfakes et des règles obligeant les plateformes technologiques à supprimer rapidement les contenus frauduleux.
Certains États, comme la Californie, ont déjà pris des mesures. Une loi impose désormais l’affichage de mentions sur les publicités générées par IA, tandis qu’un projet de loi vise à interdire explicitement les deepfakes de médecins. En Pennsylvanie, le conseil médical a ordonné à une entreprise technologique de cesser ses activités après qu’un de ses chatbots se soit fait passer pour un médecin autorisé à exercer dans l’État.
Une perte de confiance aux conséquences dramatiques
L’IA menace la crédibilité d’une profession où la confiance est essentielle : celle de la vie ou de la mort. « Nous ne devrions pas obliger le public à jouer les détectives pour déterminer si une vidéo est un deepfake », a souligné le Dr Whyte. « La crédibilité des médecins est un pilier de notre système de santé. Sans elle, c’est la sécurité des patients qui est en jeu. »
« L’IA ne doit pas devenir un outil de manipulation au détriment de la santé publique. Des mesures immédiates sont nécessaires pour protéger les professionnels et les patients. »