L’université d’État de l’Arizona (ASU) a récemment déployé Atomic, une plateforme d’intelligence artificielle conçue pour transformer les enregistrements de cours en modules pédagogiques automatisés. Le processus repose sur le découpage des vidéos longues en extraits très courts, puis sur la génération de textes et de sections à partir de ces fragments.
Cette initiative a provoqué l’indignation parmi les enseignants dont les cours ont été utilisés sans leur consentement. Plusieurs professeurs ont exprimé leur colère et leur frustration, déclarant avoir découvert l’existence d’Atomic par hasard, souvent via des discussions entre collègues. Aucun d’eux n’a été informé officiellement par l’université avant le lancement.
Les tests menés par des journalistes et des utilisateurs révèlent des problèmes majeurs : les modules générés sont non seulement hors contexte, mais aussi pauvres sur le plan académique, voire inexacts. Par exemple, un cours de littérature américaine de 12 minutes a été réduit à un extrait d’une minute, dans lequel le nom du critique littéraire Cleanth Brooks était transcrit à tort en « Client » Brooks.
« Ce qui était dans cette vidéo ne pouvait pas être compris sans un contexte bien plus large », a réagi le professeur Chris Hanlon, spécialiste de littérature américaine à l’ASU, dont le visage apparaît dans les modules générés. « Quand j’ai vu cela, j’ai été choqué de découvrir mon propre visage, ainsi que ceux de mes collègues, utilisés dans des matériaux pédagogiques sans notre accord. »
Les enseignants concernés ont tous exprimé leur consternation face à cette utilisation de leurs travaux. « C’est une chose que cela arrive de manière informelle, mais que son institution le fasse, c’est inacceptable », a-t-il ajouté.
Une plateforme développée sans consultation des enseignants
Selon la page FAQ d’Atomic, l’ASU teste une « version préliminaire » de sa plateforme « pour identifier ce qui fonctionne et ce qui ne fonctionne pas, afin d’améliorer l’expérience d’apprentissage avant un déploiement complet ». La FAQ précise que seuls les anciens étudiants de l’ASU et les personnes ayant « exprimé un intérêt pour les initiatives d’apprentissage de l’université ou participé à des recherches ayant contribué à façonner Atomic » ont été invités à tester la version bêta.
Pourtant, un journaliste a pu s’inscrire à un essai gratuit de 12 jours en utilisant une adresse e-mail personnelle, sans lien avec l’ASU. Cette absence de contrôle strict souligne les lacunes en matière de transparence et de communication de l’université.
Une fois l’abonnement souscrit, les utilisateurs peuvent générer des « modules d’apprentissage personnalisés illimités », adaptés à leurs objectifs et à leur emploi du temps, selon la FAQ. Cependant, les premiers retours d’utilisateurs et d’enseignants remettent en cause la qualité et la pertinence de ces contenus.
L’IA dans l’éducation : une tendance controversée
L’utilisation de l’IA dans le domaine éducatif suscite de vifs débats. Des expériences comme Alpha School, une école privée entièrement pilotée par l’IA, ou des agents virtuels proposant de « vivre la vie d’un étudiant » à sa place, soulèvent des questions éthiques et pédagogiques. Dans le cas d’Atomic, l’outil est développé directement par une université, mais sans consultation préalable des enseignants dont les cours sont exploités.
Cette situation illustre les risques liés à l’IA dans l’éducation : perte de contrôle sur ses travaux, diffusion de contenus tronqués ou erronés, et manque de transparence institutionnelle. Les enseignants concernés appellent à une régulation plus stricte et à une meilleure communication de la part des établissements qui intègrent ces technologies.
Vous avez des informations sur Atomic ou sur l’utilisation de l’IA dans votre établissement ? Contactez-nous de manière sécurisée via Signal au sam.404 (sur un appareil non professionnel) ou par e-mail à [email protected].