Anthropic a lancé un système de vérification d'identité pour certains utilisateurs de son assistant conversationnel Claude, sans préciser les cas concernés dans son annonce initiale.
Lors de l'accès à certaines fonctionnalités jugées sensibles, les utilisateurs pourraient recevoir une demande de vérification. Celle-ci implique la présentation d'une pièce d'identité officielle avec photo, ainsi qu'un selfie comparé à l'image de la pièce via un système automatisé.
Cette initiative a suscité de vives réactions parmi les utilisateurs. Beaucoup s'interrogent sur la nécessité de cette mesure, d'autant que les abonnés payants fournissent déjà leurs coordonnées bancaires. Le recours à Persona Identities, une filiale spécialisée dans la vérification d'âge et d'identité, est particulièrement critiqué.
Persona, qui travaille également avec OpenAI et Roblox, compte parmi ses investisseurs le fonds Founders Fund, cofondé par Peter Thiel. Ce dernier est également cofondateur et président de Palantir, une entreprise spécialisée dans les technologies de surveillance pour les agences gouvernementales américaines.
Les critiques envers Palantir portent principalement sur ses collaborations avec des institutions comme le FBI, la CIA ou encore le service d'immigration américain, utilisées pour renforcer la surveillance via des outils de reconnaissance faciale et d'intelligence artificielle.
Garanties et limites de la protection des données
Dans son communiqué, Anthropic précise que Persona sera responsable du traitement des pièces d'identité et des selfies. L'entreprise assure que ces images ne seront ni copiées ni stockées. Elle souligne également que Persona est soumis à des restrictions contractuelles strictes concernant l'utilisation des données, et que toutes les informations transitent de manière chiffrée.
Anthropic promet par ailleurs de ne pas utiliser les données d'identité pour entraîner ses modèles d'IA et garantit qu'elles ne seront pas partagées avec des tiers.
Réponse d'Anthropic aux critiques
« Cette mesure s'applique uniquement à un petit nombre de cas où nous détectons une activité potentiellement frauduleuse ou abusive, en violation de notre politique d'utilisation. »
— Porte-parole d'Anthropic