Verificación de identidad obligatoria en Claude para casos limitados

Anthropic ha comenzado a implementar un sistema de verificación de identidad en su asistente de inteligencia artificial Claude, aunque solo para casos específicos. La compañía no ha detallado públicamente cuáles son estos casos, pero ha confirmado que los usuarios podrían recibir un aviso al intentar acceder a ciertas funciones.

Para completar el proceso, se requerirá:

  • Presentar un documento oficial con foto emitido por el gobierno (DNI, pasaporte, etc.).
  • Tomar una selfie con la cámara del dispositivo (móvil o ordenador).

El sistema comparará la imagen de la selfie con la del documento para validar la identidad del usuario.

Reacciones negativas por la medida

La decisión de Anthropic ha generado críticas generalizadas entre los usuarios. Muchos cuestionan la necesidad de este requisito, especialmente para quienes ya son clientes de pago y han proporcionado sus datos de tarjeta de crédito. Además, surge preocupación por el uso de Persona Identities, la empresa externa encargada del proceso de verificación, que también trabaja con OpenAI y Roblox.

Persona Identities cuenta con Founders Fund, un fondo de inversión cofundado por Peter Thiel, quien también es cofundador y presidente de Palantir. Esta última empresa, especializada en tecnologías de vigilancia, trabaja principalmente con agencias gubernamentales de EE.UU., como el FBI, la CIA y el Servicio de Inmigración y Control de Aduanas (ICE).

Preocupaciones sobre privacidad y uso de datos

Los usuarios temen que el manejo de sus datos de identidad pueda derivar en un aumento de la vigilancia masiva. Sin embargo, Anthropic ha intentado tranquilizar a la comunidad al asegurar que:

  • Persona Identities no almacenará copias de los documentos ni las selfies.
  • Los datos estarán protegidos con cifrado durante su transmisión y almacenamiento.
  • La empresa está limitada contractualmente en el uso que puede dar a estos datos.
  • No se utilizarán para entrenar modelos de IA ni se compartirán con terceros.

Anthropic aclara el alcance de la verificación

Tras las críticas, un portavoz de Anthropic aclaró que la verificación de identidad solo se aplicará en casos excepcionales donde se detecte un comportamiento potencialmente fraudulento o abusivo que viole las políticas de uso de la plataforma.

"Esto se aplica a un número reducido de casos en los que observamos actividad que indica un posible fraude o abuso, lo que viola nuestra política de uso."

Portavoz de Anthropic

La medida refleja un esfuerzo por parte de Anthropic para reforzar la seguridad en su plataforma, aunque plantea interrogantes sobre el equilibrio entre privacidad y protección contra el mal uso de la IA.

Fuente: Engadget