Para una empresa cuya misión es esencial en la ciberseguridad, evaluar los riesgos y oportunidades de la inteligencia artificial (IA) no es un ejercicio analítico, sino un desafío tan impredecible como lanzar un dado de veinte caras. Los gestores de contraseñas, encargados de proteger las credenciales más valiosas de sus clientes frente a ciberdelincuentes y errores humanos, ahora deben enfrentarse a la IA en múltiples frentes.

Por un lado, la IA acelera el desarrollo de código y la identificación de vulnerabilidades. Por otro, puede facilitar que los clientes implementen aplicaciones inseguras o que los agentes de IA, aunque eficientes, cometan errores a gran escala debido a alucinaciones o ataques por inyección de prompts. Como explica Nancy Wang, directora de tecnología de 1Password: «Hay que ayudar a los clientes a entender el alcance de los riesgos y la omnipresencia de este desafío en sus ecosistemas».

Proteger a los clientes antes de que cometan errores

La estrategia de IA de 1Password se centra en evitar que sus clientes corporativos caigan en prácticas inseguras. La empresa utiliza un agente local para auditar el uso de modelos de IA y alertar sobre posibles riesgos a los responsables de seguridad. «¿Sabía, señora CISO, que sus desarrolladores están utilizando el modelo DeepSeek en esta rama de su base de código?», señala Wang, en referencia al modelo chino criticado por sus riesgos de seguridad. «Esto ya ha ocurrido». Tras detectar el uso, se mantuvieron conversaciones sobre las mejores prácticas de seguridad con los equipos involucrados.

El agente de 1Password también realiza escaneos automatizados para verificar actualizaciones de software y el estado de los dispositivos. Esto permite identificar credenciales desprotegidas almacenadas en disco y moverlas a su bóveda cifrada. Al igual que otros gestores de contraseñas, 1Password cifra las credenciales de extremo a extremo, impidiendo que la empresa acceda a las contraseñas guardadas. Además, su software está diseñado para que un agente de IA no pueda ver el texto en claro de una contraseña, incluso durante el autocompletado en un sitio web.

Las empresas pueden instalar el agente de confianza de dispositivo de 1Password en equipos personales, mitigando uno de los vectores de ataque más comunes y exitosos. Sin embargo, el cumplimiento de estas medidas es desigual, especialmente en cuentas familiares de 1Password incluidas en planes empresariales, que suelen quedar sin usar en los dispositivos de los empleados.

Evitar que los agentes de IA se descontrolen

Los agentes de IA automatizan tareas rutinarias, pero su naturaleza no determinista exige un monitoreo constante para garantizar que funcionen correctamente. Wang considera esto una «oportunidad en verde» para que 1Password aprenda a escala analizando el comportamiento de los agentes. «¿Cuál fue el prompt? ¿Qué hizo el agente con él? ¿Cuál fue el resultado?», explica. Los archivos de registro generados se utilizan para mejorar el agente y el modelo mediante un mecanismo de aprendizaje.

En febrero, 1Password anunció un nuevo estándar para evaluar el comportamiento de los agentes de IA: el índice SCAM (Security Comprehension and Awareness Measure). Este benchmark busca establecer métricas claras para garantizar que los agentes operen de manera segura y alineada con las políticas de ciberseguridad de las empresas.