L'IA médicale sous le feu des critiques : des preuves d'efficacité quasi inexistantes

Des millions d'Américains se tournent vers des chatbots d'intelligence artificielle pour obtenir des conseils médicaux, souvent en remplacement d'une consultation avec un professionnel de santé. Pourtant, les chercheurs continuent de mettre en lumière des défauts majeurs affectant les outils basés sur les grands modèles de langage (LLM). Ces systèmes, capables de résumer des dossiers médicaux ou de prodiguer des conseils à partir de simples requêtes textuelles, présentent des risques critiques.

Des hallucinations aux conséquences potentiellement graves

L'un des problèmes les plus préoccupants reste les hallucinations générées par ces modèles. Ceux-ci peuvent produire des diagnostics détaillés à partir d'images qu'ils n'ont jamais analysées, ou encore valider des maladies inventées par des chercheurs pour les tester. Ces dysfonctionnements soulèvent une question essentielle : les patients, les soignants et les systèmes de santé doivent-ils vraiment adopter ces technologies ?

Une analyse éditoriale cinglante, publiée mardi dans la prestigieuse revue Nature Medicine, souligne l'absence de preuves concrètes démontrant l'utilité des outils d'IA pour les patients, les professionnels ou les systèmes de santé. « Les preuves que les outils d'IA créent de la valeur pour les patients, les prestataires ou les systèmes de santé restent rares », peut-on y lire. « Pourtant, les revendications sur leur impact clinique se multiplient dans les publications et les supports commerciaux, sans consensus sur les critères de validation nécessaires pour les considérer comme crédibles. »

Les auteurs de l'article appellent à la mise en place urgente d'un cadre d'évaluation pour ces technologies, incluant des métriques et des références claires. Sans cela, le risque est une adoption prématurée, source d'incertitudes scientifiques et de dérives.

Des performances décevantes en conditions réelles

Une étude récente publiée dans JAMA Medicine a révélé que les modèles d'IA de pointe échouent à poser le bon diagnostic dans plus de 80 % des cas lorsque les symptômes présentés sont ambigus. Ces résultats contrastent fortement avec les performances parfois impressionnantes observées en laboratoire.

L'IA en recherche clinique : entre opportunités et pièges

Si les LLM excellent dans la synthèse et l'analyse de données, les chercheurs alertent sur leurs limites majeures. Jamie Robertson, professeure adjointe en chirurgie à la Harvard Medical School, a déclaré l'an dernier : « L'IA peut accélérer des processus fastidieux et complexes, comme l'analyse de données ou la génération de scénarios. »

Cependant, elle ajoute : « Il est crucial que les personnes utilisant ces outils dans le cadre d'études cliniques maîtrisent leurs applications, qu'elles soient adaptées ou non au contexte. » Une utilisation inappropriée pourrait compromettre la rigueur scientifique et favoriser la propagation de données sur généralisées ou hallucinées.

Un test révélateur : quand l'IA valide des études fictives

Pour illustrer ces dangers, Almira Osmanovic Thunström, chercheuse en médecine à l'Université de Göteborg, a publié deux études manifestement fausses sur un serveur de prépublications. Objectif : tromper les LLM en leur faisant croire à une maladie cutanée inventée. Résultat ? Plusieurs revues scientifiques à comité de lecture ont publié (avant rétractation) des articles citant ces prépublications, soulevant des questions graves sur leur fiabilité.

Vers une régulation nécessaire de l'IA en santé

Les experts s'accordent sur un point : le prochain bond en avant dépendra autant de l'amélioration des modèles que de leur encadrement strict. Sans cadre réglementaire solide, le risque est de voir se généraliser des outils dont les bénéfices réels restent à prouver.

« Les outils d'IA ne doivent pas être adoptés sans preuves tangibles de leur utilité. Leur intégration doit être progressive, mesurée et soumise à une évaluation rigoureuse. »

— Extrait de l'éditorial de Nature Medicine
Source : Futurism