Face à la multiplication des interdictions des réseaux sociaux pour les mineurs dans plusieurs pays, Meta intensifie ses efforts pour convaincre les parents de la sécurité de ses plateformes. La société a annoncé une nouvelle fonctionnalité : les parents pourront désormais consulter les sujets discutés par leurs adolescents avec l'IA de Meta au cours de la semaine précédente.

Dans un communiqué publié sur son blog, Meta précise :

"Les parents pourront voir les sujets que leur adolescent a abordés avec Meta AI sur Facebook, Messenger ou Instagram au cours de la semaine écoulée." Les thèmes peuvent inclure l'école, le divertissement, le mode de vie, les voyages, l'écriture ou encore la santé et le bien-être.

Une fonctionnalité accessible via l'onglet Insights

Pour les parents qui supervisent les comptes de leurs adolescents, cette option sera disponible dans un nouvel onglet nommé Insights, accessible aussi bien via l'application que sur le web. En cliquant sur un thème, les parents pourront consulter les sous-catégories associées. Par exemple, sous le thème Mode de vie, on trouve la mode, l'alimentation ou les vacances, tandis que la santé et le bien-être incluent la forme physique, la santé mentale et physique.

Des outils pour faciliter le dialogue

Meta a collaboré avec le Cyberbullying Research Center pour créer des "amorces de conversation", des questions ouvertes destinées à encourager les échanges entre parents et adolescents sur leur expérience avec l'IA. Ces suggestions, détaillant les objectifs des questions posées, sont disponibles sur le site du Family Center ou via un lien dans le nouvel onglet Insights.

Un conseil d'experts pour encadrer l'IA

Meta a également révélé davantage d'informations sur son AI Wellbeing Expert Council, un groupe chargé de fournir des conseils continus sur l'expérience IA pour les adolescents. Ce conseil sera composé de trois groupes consultatifs existants ainsi que de nouveaux membres spécialisés dans l'IA responsable et éthique. Ces experts sont affiliés au National Council of Suicide Prevention et à plusieurs universités. À noter que Meta dispose déjà d'un conseil de surveillance distinct, chargé de traiter des sujets allant de l'IA à la modération de contenu.

Une stratégie de modération externalisée

Ces dernières semaines, Meta a réduit son recours à des prestataires externes pour la modération de contenu, transférant cette responsabilité à des systèmes d'IA avancés. Une décision qui s'inscrit dans une tendance plus large où l'entreprise externalise de plus en plus la gestion des risques liés aux mineurs à leurs parents.

Les dangers de l'IA pour les adolescents ont été l'un des motifs invoqués par des pays comme l'Espagne pour interdire les réseaux sociaux aux mineurs. Des cas tragiques ont également été signalés, comme celui d'un adolescent au Canada qui a reçu des instructions détaillées de ChatGPT pour commettre une fusillade dans son école. Une autre affaire est actuellement en cours d'enquête en Floride, et l'IA a été impliquée dans plusieurs cas de suicide chez des adolescents.

Ressources en cas de crise

En cas de besoin, voici quelques ressources utiles :

  • Aux États-Unis : Numéro de prévention du suicide, 1-800-273-8255 ou composez le 988.
  • Ligne de crise par SMS : Envoyez le mot HOME au 741741 (États-Unis), 686868 (Canada) ou 85258 (Royaume-Uni).
  • Pour les autres pays, une liste des lignes d'urgence est disponible sur Wikipédia.
Source : Engadget