La prestigieuse revue Nature a annoncé la rétractation d’un article scientifique qui prétendait démontrer les bénéfices de l’utilisation de ChatGPT dans l’éducation. L’étude, intitulée « L’effet de ChatGPT sur les performances d’apprentissage, la perception des étudiants et la pensée critique : perspectives issues d’une méta-analyse », avait été publiée en mai 2025 par les chercheurs Jin Wang et Wenxiang Fan, affiliés à l’Université normale de Hangzhou en Chine.
Cette méta-analyse synthétisait les résultats de 51 études publiées entre novembre 2022 et février 2025, concluant à un impact « important ou modéré » de ChatGPT sur les performances académiques, la perception de l’apprentissage et les capacités de réflexion avancée des étudiants. Cependant, Nature a finalement jugé ces conclusions non fiables.
Dans un communiqué de rétractation, la revue explique :
« L’éditeur a décidé de rétracter cet article en raison de préoccupations concernant des incohérences dans la méta-analyse. Ces problèmes remettent en cause la validité des résultats et des conclusions présentées. Les auteurs n’ont pas répondu aux demandes de clarification. »
Les chercheurs n’ont pas encore réagi publiquement à cette décision. Ben Williamson, maître de conférences en éducation numérique à l’Université d’Édimbourg, avait souligné dès sa publication l’ampleur de la diffusion de l’étude : « Dès sa parution le 6 mai 2025, l’article a rapidement circulé sur les réseaux sociaux, notamment sur LinkedIn. En un mois, il avait été consulté près de 400 000 fois et obtenu un score Altmetric de 365, grâce à des partages massifs sur X (ex-Twitter) et Bluesky. Certains influenceurs l’ont présenté comme une preuve solide en faveur de l’intégration de l’IA dans l’éducation. »
Si le communiqué de rétractation ne précise pas les lacunes méthodologiques exactes, une étude publiée en 2025 dans l’European Journal of Education Policy and Practice avait déjà pointé du doigt les failles de cette approche. Ilkka Tuomi, auteur de l’article « Qu’est-ce qui compte comme preuve dans l’IA en éducation ? Vers une science pour les politiques 3.0 », explique que ces méta-analyses incluent souvent des études de qualité inégale, voire des données ne démontrant aucun bénéfice réel de l’IA sur l’apprentissage.
Selon Tuomi,
« Malgré une apparence de rigueur méthodologique, l’hétérogénéité des études analysées rend les résultats quantitatifs de ces méta-analyses non significatifs. »Il ajoute que des problèmes similaires avaient été identifiés dans d’autres recherches virales sur le sujet, dont celle de Wang et Fan.
Cette rétractation illustre les défis posés par la fiabilité des études sur l’IA en éducation, un domaine où les enjeux politiques et médiatiques sont particulièrement sensibles. Les chercheurs et les décideurs doivent désormais faire preuve d’une vigilance accrue face à des résultats parfois surinterprétés ou mal étayés.