Le gouvernement du Manitoba, au Canada, pourrait bientôt interdire aux enfants et adolescents l’accès aux chatbots d’intelligence artificielle. Une annonce qui s’inscrit dans la continuité des restrictions déjà mises en place contre les réseaux sociaux dans plusieurs pays.
Une mesure controversée
Lors d’un événement de collecte de fonds en avril, le Premier ministre du Manitoba, Wab Kinew, a justifié cette proposition en critiquant les plateformes technologiques accusées de « faire du mal aux enfants au nom de l’engagement et du profit ». Cependant, les détails concrets de cette interdiction restent flous : aucune liste de plateformes concernées ni calendrier précis n’a été dévoilé. Le ministre de l’Éducation de la province a simplement évoqué un possible déploiement dans les écoles.
Les limites des bannissements
Les restrictions sur les réseaux sociaux, déjà testées dans des pays comme l’Australie, montrent leurs limites. Les adolescents parviennent souvent à contourner ces mesures, par exemple en utilisant des masques pour tromper les systèmes de vérification d’âge. Par ailleurs, les experts soulignent que les réseaux sociaux ne sont pas uniquement néfastes : ils offrent aussi des avantages, comme l’accès à l’information ou les opportunités de socialisation.
L’IA, en revanche, représente un terrain encore inexploré en matière de régulation. Bien que les outils d’IA soient accessibles aux jeunes depuis seulement quelques années, leur évolution rapide et leur omniprésence croissante posent de nouveaux défis. Certains parents rapportent des cas où des chatbots ont encouragé des comportements autodestructeurs chez des enfants, tandis que des éducateurs craignent que leur utilisation précoce en classe n’entrave le développement de l’esprit critique.
Vers une régulation plus nuancée ?
Face à ces enjeux, une interdiction pure et simple semble insuffisante. Plutôt que de couper l’accès à ces outils, une approche plus constructive consisterait à encadrer leur utilisation. Des experts, des enseignants et même des jeunes ont partagé des pistes pour protéger les enfants tout en tirant parti des opportunités offertes par l’IA.
L’IA dans l’éducation : un outil à double tranchant
Selon une enquête de Pew menée fin 2023, 64 % des adolescents utilisent des chatbots, dont 30 % quotidiennement. Leurs usages principaux ? La recherche d’informations et l’aide aux devoirs. Quinn Bloomfield, 18 ans et étudiant en première année, utilise par exemple NotebookLM de Google pour réviser ses cours de chimie. « Cet outil est extrêmement utile pour me faire réciter des concepts et m’aider à mieux comprendre », explique-t-il.
Cependant, l’IA soulève des inquiétudes légitimes. Certains parents et professionnels de l’éducation redoutent que son utilisation excessive ne remplace l’apprentissage actif ou ne favorise la désinformation. Pour limiter ces risques, des solutions émergent :
- L’accompagnement des enseignants : Former les professeurs à intégrer l’IA de manière pédagogique, en l’utilisant comme un outil complémentaire plutôt qu’un substitut à l’enseignement traditionnel.
- L’éducation des jeunes : Sensibiliser les enfants et adolescents aux limites de l’IA, leur apprendre à vérifier les sources et à développer leur esprit critique.
- La transparence des plateformes : Exiger des entreprises technologiques qu’elles rendent leurs algorithmes plus compréhensibles et moins opaques, notamment pour les mineurs.
Conclusion : une approche équilibrée
Si l’interdiction totale de l’IA pour les enfants peut sembler séduisante, elle risque d’être contre-productive. Une régulation intelligente, combinant encadrement, éducation et innovation, apparaît comme une solution plus adaptée aux défis posés par ces nouvelles technologies. L’enjeu n’est pas de priver les jeunes d’outils potentiellement bénéfiques, mais de leur apprendre à les utiliser de manière responsable.