Golpes com deepfakes e falsos updates: a nova fronteira dos ataques no mercado cripto
Um fundador de uma startup cripto teve seu notebook invadido após participar de uma chamada no Microsoft Teams que parecia legítima com Pierre Kaklamanos, um contato da Cardano Foundation com quem já havia se comunicado antes. O ataque, que utilizou técnicas de engenharia social e deepfake, revela como os golpistas estão se tornando cada vez mais sofisticados — e perigosos.
Durante a chamada, tanto a voz quanto o rosto de "Pierre" pareciam reais, e outros dois supostos membros da fundação também estavam presentes. Quando a conexão caiu, uma mensagem apareceu sugerindo que o software do Teams estava desatualizado e precisava ser reinstalado via Terminal. O fundador, que se descreve como "tecnologicamente experiente", executou o comando — mas desligou o notebook rapidamente por falta de bateria, limitando os danos.
O detalhe preocupante é que o ataque funcionou justamente porque o contexto parecia autêntico. Engenheiros sociais sempre exploraram a familiaridade, mas agora, com a IA, eles podem replicar interações em vídeo de forma convincente e em escala.
Como os golpistas estão usando IA para enganar vítimas
Antes, para executar um golpe desse tipo, os criminosos precisavam de semanas de interação por texto ou acesso a uma conta comprometida. Hoje, com modelos avançados de IA, eles conseguem criar vídeos realistas de executivos ou contatos conhecidos em questão de minutos.
Em fevereiro e março de 2026, a Microsoft documentou campanhas maliciosas em que arquivos falsos se passavam por aplicativos de trabalho, como msteams.exe e zoomworkspace.clientsetup.exe. Os golpistas usavam iscas de phishing que imitavam fluxos de reunião legítimos do Teams e Zoom.
Em outro alerta, a Microsoft descreveu prompts do tipo "ClickFix" para usuários de macOS, instruindo-os a colar comandos no Terminal para roubar senhas de navegadores, carteiras de criptomoedas, credenciais de nuvem e chaves de desenvolvedores. O falso update do Teams combina essas duas técnicas.
A unidade Google Cloud Mandiant também relatou um ataque semelhante focado em criptomoedas. Nesse caso, os criminosos usaram:
- Uma conta comprometida no Telegram;
- Uma reunião falsa no Zoom;
- Um vídeo deepfake de um executivo;
- Comandos de troubleshooting que disseminaram a infecção.
A Mandiant não conseguiu confirmar qual modelo de IA foi usado para gerar o vídeo, mas confirmou que o grupo utilizou ferramentas de IA durante a engenharia social.
Pierre Kaklamanos alerta sobre conta hackeada
Em 24 de abril, o verdadeiro Pierre Kaklamanos publicou no X (antigo Twitter) que sua conta no Telegram havia sido hackeada e que alguém estava se passando por ele — além de outros profissionais do setor. Ele pediu aos seguidores que evitassem clicar em links ou agendar reuniões pela conta e que verificassem contatos por meio de mensagens diretas no LinkedIn.
Na época, o fundador da startup cripto já havia entrado em contato com a conta falsa, sugerindo mudar para o Google Meet. Quem controlava a conta de Pierre respondeu que ele estava ocupado e pediu para remarcar — mantendo o controle do perfil mesmo após o término da chamada.
Esse episódio não é apenas um caso isolado, mas um sinal de que o método está ativo e sendo usado em campanhas reais. A conta comprometida é a porta de entrada, e o histórico de relacionamento é a arma dos golpistas.
Como se proteger desses golpes
Para evitar cair em armadilhas como essa, especialistas recomendam:
- Verificar sempre a autenticidade de convites de reunião, especialmente se vierem de contatos conhecidos;
- Nunca executar comandos suspeitos no Terminal ou prompt de comando sem confirmação;
- Usar autenticação multifator (MFA) em todas as contas críticas;
- Desconfiar de mudanças repentinas de planos ou solicitações urgentes;
- Confirmar informações por canais oficiais, como LinkedIn ou sites verificados.
Com a evolução das técnicas de IA, os golpistas estão cada vez mais difíceis de serem detectados. A única defesa eficaz é a vigilância constante e a adoção de medidas de segurança robustas.
"Engenheiros sociais sempre exploraram a familiaridade, mas agora, com a IA, eles podem replicar interações em vídeo de forma convincente e em escala."