Un ataque con IA que engañó incluso a un experto en tecnología
Un fundador de criptomonedas con amplios conocimientos técnicos fue víctima de una estafa que combinó ingeniería social, deepfakes y suplantación de identidad. El ataque comenzó cuando recibió una invitación a una videollamada de Microsoft Teams supuestamente enviada por Pierre Kaklamanos, un conocido de la Fundación Cardano con quien había interactuado previamente.
Durante la llamada, tanto el rostro como la voz del interlocutor coincidían con lo que recordaba, y otros dos miembros de la fundación parecían estar presentes. Cuando la conexión falló, un mensaje emergente indicó que el software de Teams estaba desactualizado y necesitaba reinstalarse mediante Terminal. El fundador ejecutó el comando y, al apagar el portátil por falta de batería, limitó el daño.
La autenticación por videollamada ya no es suficiente
Este caso ilustra cómo los ciberdelincuentes están utilizando herramientas de inteligencia artificial para replicar identidades y crear entornos de confianza falsos. Tradicionalmente, los atacantes necesitaban semanas de interacción por texto o acceso a cuentas comprometidas para ganarse la confianza de sus víctimas. Sin embargo, ahora pueden simular reuniones en tiempo real con rostros y voces generadas por IA, lo que hace que los fraudes sean casi indistinguibles de las interacciones legítimas.
Microsoft ya había alertado en 2026 sobre campañas de phishing que utilizaban archivos maliciosos disfrazados de aplicaciones corporativas como msteams.exe o zoomworkspace.clientsetup.exe. Además, se detectaron estafas en macOS que redirigían a los usuarios a ejecutar comandos en Terminal para robar credenciales de navegadores, carteras de criptomonedas y claves de desarrolladores.
Deepfakes y cuentas hackeadas: la nueva estrategia de los ciberdelincuentes
Google Cloud's Mandiant reveló un caso similar en el que un grupo de hackers utilizó una cuenta de Telegram comprometida para organizar una reunión falsa en Zoom. Los testigos describieron un vídeo de ejecutivo generado con IA y comandos de solución de problemas que activaron la infección. Aunque Mandiant no pudo confirmar qué modelo de IA se usó, sí verificó que los atacantes emplearon herramientas de inteligencia artificial durante el proceso de ingeniería social.
El 24 de abril, el verdadero Pierre Kaklamanos publicó en X (antes Twitter) advirtiendo que su cuenta de Telegram había sido hackeada y que alguien estaba suplantando su identidad, junto con otros profesionales del sector. Kaklamanos pidió a sus seguidores que evitaran hacer clic en enlaces o programar reuniones a través de esa cuenta y que verificaran cualquier contacto mediante mensajes directos en LinkedIn.
Para entonces, el fundador de criptomonedas ya había intentado contactar con la cuenta falsa para cambiar a Google Meet. El atacante, que controlaba la cuenta de Telegram de Kaklamanos, respondió que estaba ocupado y pidió reprogramar la reunión, manteniendo la farsa incluso después de finalizar la llamada.
¿Cómo funciona este tipo de estafa?
- Contacto inicial: El atacante se hace pasar por una persona conocida, como Pierre Kaklamanos, para reabrir una relación de confianza ya existente.
- Configuración de la reunión: Envía una invitación a una videollamada legítima (Teams, Zoom) con participantes falsos que refuerzan la credibilidad.
- Fallo técnico simulado: Provoca una desconexión y muestra un mensaje falso de actualización del software, redirigiendo a la víctima a ejecutar comandos maliciosos.
- Ejecución del ataque: La víctima instala un malware o revela credenciales al seguir las instrucciones, comprometiendo su dispositivo o cuentas.
La IA como herramienta de los ciberdelincuentes
La capacidad de generar deepfakes realistas y replicar voces está democratizando el fraude a gran escala. Lo que antes requería recursos técnicos avanzados o acceso a cuentas comprometidas ahora puede lograrse con herramientas accesibles. Esto representa un riesgo creciente para sectores como las criptomonedas, donde la confianza y la rapidez en las transacciones son clave.
Los expertos advierten que, sin medidas de verificación adicionales, las empresas y particulares podrían enfrentarse a un aumento exponencial de este tipo de estafas. La recomendación es siempre verificar la identidad de los interlocutores a través de canales oficiales y desconfiar de solicitudes urgentes o cambios en los procedimientos habituales.
«Los atacantes ya no necesitan semanas para ganarse la confianza de sus víctimas; ahora pueden hacerlo en minutos con herramientas de IA».