Une étude largement médiatisée, qui prétendait démontrer les bénéfices de l'intelligence artificielle (IA) dans l'apprentissage, vient d'être rétractée par la revue Nature. Publiée en 2023, cette recherche affirmait que des outils comme ChatGPT d'OpenAI pouvaient avoir un impact positif significatif sur les résultats scolaires et favoriser la pensée critique. Ses auteurs recommandaient même une intégration massive de l'IA dans les méthodes pédagogiques.
Cependant, près d'un an après sa publication, l'étude a été retirée sans cérémonie. Springer Nature, l'éditeur de la revue, a justifié cette décision par des « incohérences » dans les données et une méthodologie jugée défaillante. Dans un communiqué publié fin 2023, l'éditeur a admis que ces problèmes « sapent la confiance dans la validité de l'analyse et des conclusions ».
Cette rétractation représente un revers majeur pour les défenseurs de l'IA dans l'éducation. Ben Williamson, chercheur à l'Université d'Édimbourg, a souligné auprès d'Ars Technica que cette étude était perçue comme une « preuve solide » des avantages de l'IA pour les élèves. Pourtant, elle reposait sur une méta-analyse de 51 études, dont certaines de qualité discutable.
Les experts pointent du doigt plusieurs problèmes :
- Manque de données fiables : ChatGPT était encore un outil récent en 2023, et peu d'études rigoureuses avaient été menées sur son impact cognitif.
- Comparaisons biaisées : Certaines études incluses dans la méta-analyse utilisaient des méthodologies très différentes, rendant les résultats difficilement comparables.
- Qualité inégale : La synthèse aurait intégré des recherches de faible niveau, voire des données non pertinentes.
« Il était irréaliste de penser que des dizaines d'études de haute qualité sur ChatGPT et les performances d'apprentissage aient pu être publiées en si peu de temps », a déclaré Williamson. « Cette étude n'aurait jamais dû être publiée. »
Cette affaire survient alors que l'industrie de l'IA intensifie ses efforts pour s'imposer dans les salles de classe. OpenAI, Anthropic et Microsoft investissent massivement dans la formation des enseignants et des syndicats, tandis que des universités comme l'Ohio State imposent désormais des cours obligatoires sur l'IA. Pourtant, de nombreux professeurs dénoncent déjà l'utilisation de ces outils pour tricher, remettant en cause leur utilité pédagogique.
« Les promesses de l'IA dans l'éducation sont souvent exagérées, et les preuves scientifiques manquent cruellement. »