Une innovation controversée pour détecter les mineurs

Meta, la maison mère de Facebook et Instagram, a annoncé le déploiement d'un système d'intelligence artificielle capable d'analyser la structure osseuse des utilisateurs pour détecter les comptes de mineurs. Cette technologie, déjà testée sur Instagram, est désormais étendue à Facebook afin d'intensifier la lutte contre les faux profils et de renforcer la sécurité des jeunes utilisateurs.

Comment fonctionne ce système ?

L'outil utilise des algorithmes d'apprentissage automatique pour examiner les images de profil et identifier les caractéristiques osseuses typiques des adolescents. Bien que les détails techniques restent confidentiels, Meta affirme que cette méthode permet de distinguer plus précisément les utilisateurs de moins de 18 ans des adultes.

Une réponse aux critiques sur la protection des mineurs

Cette initiative s'inscrit dans le cadre des efforts de Meta pour améliorer la sécurité en ligne des jeunes. En 2023, l'entreprise avait déjà renforcé ses systèmes de détection des comptes de mineurs, notamment en utilisant des algorithmes pour analyser les comportements et les interactions. Cependant, cette nouvelle approche suscite des questions sur la vie privée et l'éthique de l'utilisation de données biométriques sans consentement explicite.

Réactions et enjeux éthiques

Les associations de défense des droits numériques ont réagi avec prudence.

« L'analyse biométrique sans consentement clair est une violation potentielle du droit à la vie privée », a déclaré un porte-parole de l'association La Quadrature du Net. « Meta doit justifier la nécessité et la proportionnalité de cette technologie. »

De son côté, Meta assure que les données biométriques ne sont pas stockées et que l'analyse est effectuée en temps réel, sans conservation des images. L'entreprise souligne également que cette mesure vise à protéger les mineurs des prédateurs en ligne et des contenus inappropriés.

Un déploiement progressif et des limites à considérer

Le système sera d'abord déployé aux États-Unis avant d'être étendu à d'autres régions. Cependant, plusieurs limites sont déjà identifiées :

  • Les algorithmes peuvent générer des erreurs, notamment pour les utilisateurs dont la structure osseuse est atypique.
  • Les personnes transgenres ou en transition peuvent être mal identifiées.
  • Les utilisateurs masquant leur visage (pour des raisons culturelles ou religieuses) pourraient être injustement ciblés.

Meta face aux défis de la modération automatisée

Cette annonce intervient alors que Meta est sous pression pour améliorer la modération de ses plateformes. En 2022, une étude avait révélé que Facebook et Instagram exposaient les jeunes à des contenus dangereux, comme des troubles alimentaires ou des discours de haine. Malgré les investissements dans l'IA, les critiques persistent quant à l'efficacité réelle de ces outils pour protéger les mineurs.

Pour l'instant, Meta n'a pas communiqué de calendrier précis pour le déploiement complet de cette technologie. Les utilisateurs peuvent cependant signaler eux-mêmes les comptes suspects via les outils de signalement existants.

Source : Engadget