Un vide réglementaire fédéral qui laisse les États seuls maîtres du jeu

L’intelligence artificielle (IA) promet rapidité, efficacité et réduction des coûts dans le secteur de la santé. Mais ces avantages suscitent aussi des inquiétudes : des médecins craignent que cette technologie, en s’affranchissant du contrôle humain, ne conduise à des refus d’assurance injustifiés.

Face à l’absence de cadre fédéral strict, les États américains doivent désormais établir leurs propres règles. Cette situation crée des disparités majeures, comme le montre l’exemple frappant des deux rives du Potomac : le Maryland et la Virginie adoptent des approches radicalement opposées pour réguler l’IA dans les assurances santé.

Maryland et Virginie : deux modèles qui s’opposent

Dans le Maryland, les autorités sanitaires ont adopté une position prudente. L’État a mis en place des garanties strictes pour encadrer l’utilisation de l’IA dans les décisions médicales et les remboursements. Les assureurs doivent notamment justifier toute décision algorithmique et prévoir un recours humain systématique.

À l’inverse, la Virginie a choisi une voie plus libérale. Les régulateurs locaux misent sur l’autonomie des acteurs privés, limitant les obligations de transparence et de contrôle. Résultat : les résidents de la région de Washington, D.C., peuvent se retrouver avec des niveaux de protection très variables selon qu’ils vivent d’un côté ou de l’autre de la rivière.

Les craintes des professionnels de santé

« L’IA peut améliorer l’accès aux soins, mais elle comporte aussi des risques majeurs. Sans supervision humaine, les algorithmes pourraient générer des biais ou des erreurs aux conséquences dramatiques pour les patients. »

— Dr. Sophie Moreau, médecin généraliste à Baltimore

Un enjeu national qui dépasse les frontières étatiques

Lauren Sausser, correspondante de KFF Health News, a analysé cette fracture réglementaire lors d’un entretien avec WAMU’s Health Hub le 15 avril. Elle souligne que le lieu de résidence des patients détermine désormais l’étendue de leur protection face à l’IA.

Cette situation reflète un problème plus large : l’absence de politique fédérale cohérente en matière d’IA médicale. Alors que certains États, comme la Californie, commencent à légiférer, d’autres restent en retrait, laissant le champ libre aux entreprises technologiques.

Les pistes pour un encadrement équilibré

  • Transparence obligatoire : les algorithmes utilisés par les assureurs doivent être audités et leurs critères rendus publics.
  • Recours humain systématique : toute décision automatisée doit pouvoir être contestée par un professionnel de santé.
  • Collaboration fédérale : une harmonisation des règles au niveau national éviterait les disparités entre États.

KFF Health News : une source d’information indépendante sur les politiques de santé

KFF Health News est une rédaction nationale spécialisée dans l’analyse des enjeux sanitaires. Elle fait partie des programmes phares de KFF, un organisme indépendant dédié à la recherche, aux sondages et au journalisme sur les politiques de santé. Leurs travaux peuvent être republés gratuitement sous certaines conditions.