Le projet de loi GUARD (Guidelines for User Age-verification and Responsible Dialogue), porté par le sénateur républicain Josh Hawley et co-sponsorisé par le démocrate Richard Blumenthal, a été adopté en commission au Sénat américain la semaine dernière. Cette initiative, qualifiée par Jibran Ludwig de Fight for the Future de « cheval de Troie pour des vérifications d'identité universelles en ligne », vise à encadrer strictement l'accès aux assistants conversationnels par intelligence artificielle.
Selon le texte, toute personne souhaitant utiliser un chatbot IA devra fournir une preuve d'identité. Par ailleurs, les mineurs se verraient interdire l'accès à de nombreux types de chatbots, sans possibilité pour les parents de se soustraire à ces restrictions fédérales. Une approche qui soulève des questions sur l'équilibre entre protection des jeunes et respect de la vie privée.
Un texte controversé, adopté malgré les réserves
Bien que certains membres de la commission judiciaire du Sénat aient exprimé des inquiétudes concernant les risques pour la vie privée ou les conséquences imprévues de cette mesure, le projet de loi a été adopté « sans difficulté » par les sénateurs, comme le rapporte The Hill. Parmi eux, le sénateur démocrate Alex Padilla (Californie) a reconnu des « risques potentiels pour la vie privée et la sécurité » liés à la vérification d'âge, suggérant que le dispositif devra être « affiné ». De son côté, le républicain Ted Cruz (Texas), habituellement favorable aux lois de protection des mineurs en ligne, a soutenu le texte tout en soulignant la nécessité de « révisions » pour éviter une interdiction totale des chatbots IA pour les adolescents.
Josh Hawley a tenté de rassurer en précisant que le projet ne visait pas à interdire tous les chatbots pour les mineurs, mais plutôt à « empêcher les assistants IA interagissant avec eux de leur proposer des contenus à caractère sexuel explicite, d'encourager l'automutilation ou le suicide ». Une clarification qui, selon ses détracteurs, relève d'une communication trompeuse, le texte allant bien au-delà de ces objectifs affichés.
Une définition large des « compagnons IA » qui inquiète
Le GUARD Act définit un « compagnon IA » comme tout système capable de fournir des réponses « adaptatives et semblables à celles d'un humain », conçu pour « simuler des interactions interpersonnelles, de l'amitié, de la camaraderie ou des échanges thérapeutiques ». Les entreprises d'IA seraient tenues d'interdire l'accès à ces outils aux moins de 18 ans. Une interdiction qui dépasse largement la volonté initiale de lutter contre les contenus dangereux, et qui pourrait priver les adolescents d'outils bénéfiques.
Parmi les usages potentiellement concernés :
- Les assistants thérapeutiques pour jeunes en détresse psychologique ;
- Les tuteurs en ligne ou les outils d'apprentissage des langues ;
- Les chatbots offrant un soutien émotionnel ou des interactions sociales bienveillantes.
Des fonctionnalités jugées utiles, voire essentielles, par de nombreux experts en éducation et en santé mentale. Pourtant, le texte, dans sa formulation actuelle, pourrait empêcher les mineurs d'accéder à ces services, sous prétexte de les protéger.
« Ce projet de loi ne se limite pas à interdire les interactions dangereuses avec des IA. Il risque de couper les adolescents de ressources précieuses, simplement parce que le législateur a choisi une définition trop large et intrusive. »
— Expert en politique numérique, anonymat demandé
Les défenseurs des libertés en ligne craignent également que cette mesure ne constitue qu'une première étape vers une généralisation des vérifications d'identité sur l'ensemble des plateformes numériques, au nom de la protection des mineurs. Une perspective qui interroge sur l'avenir de l'anonymat et de l'accès libre à internet.