Un fondateur dans le domaine des cryptomonnaies a frôlé une catastrophe numérique après avoir participé à ce qu’il croyait être un appel Microsoft Teams avec Pierre Kaklamanos, un contact de la Fondation Cardano. L’attaque, qui aurait pu lui coûter cher, illustre l’évolution des arnaques par IA, désormais capables de duper même les utilisateurs les plus avertis.
L’arnaqueur, se faisant passer pour Kaklamanos, a contacté la victime au sujet d’un projet appelé Atrium et lui a envoyé une invitation Teams. Rien ne semblait anormal : l’image et la voix correspondaient à celles que la victime connaissait. Deux autres participants, également présentés comme des membres de la Fondation, figuraient également dans l’appel. Lorsque la connexion a ralenti puis coupé, un message est apparu, indiquant que le logiciel Teams devait être mis à jour via le Terminal. La victime, techniquement compétente, a exécuté la commande avant d’éteindre son ordinateur en raison d’une batterie faible, limitant ainsi les dégâts.
Cette attaque met en lumière une tendance inquiétante : les escrocs exploitent désormais la familiarité et les outils d’IA pour renforcer leur crédibilité. Les attaques par ingénierie sociale reposent depuis toujours sur la confiance, mais l’IA permet désormais de reproduire des voix et des visages de manière quasi parfaite, rendant les arnaques bien plus convaincantes.
Des attaques de plus en plus sophistiquées grâce à l’IA
Les escrocs utilisent désormais des modèles d’IA avancés pour créer des deepfakes ou des voix synthétiques, rendant les arnaques par téléphone ou visioconférence presque indétectables. Microsoft a déjà documenté des campagnes similaires en 2026, où des fichiers malveillants se faisaient passer pour des mises à jour d’applications professionnelles comme Teams ou Zoom. Ces attaques ciblaient notamment les mots de passe des navigateurs, les portefeuilles crypto, les identifiants cloud et les clés de développement.
Dans un cas distinct, l’unité Mandiant de Google Cloud a décrit une intrusion dans le secteur crypto basée sur une structure similaire. Un compte Telegram compromis, une réunion Zoom truquée, une vidéo deepfake d’un dirigeant et des commandes de dépannage ont suffi à infecter un système. Bien que Mandiant n’ait pas confirmé quel modèle d’IA a été utilisé pour générer la vidéo, l’utilisation d’outils d’IA dans ces attaques est désormais avérée.
Un signal d’alerte pour l’industrie crypto
Le 24 avril, Pierre Kaklamanos a lui-même alerté sur X (ex-Twitter) : son compte Telegram avait été piraté et des escrocs se faisaient passer pour lui ainsi que pour d’autres acteurs du secteur. Il a conseillé à ses followers d’éviter de cliquer sur des liens ou de réserver des réunions via ce compte et de vérifier les contacts via des messages directs sur LinkedIn. Pourtant, avant cette alerte, la victime avait déjà tenté de contacter l’escroc pour organiser une réunion sur Google Meet. L’attaquant, toujours en contrôle du compte compromis, a répondu que Kaklamanos était occupé et a proposé de reporter la réunion, prolongeant ainsi la supercherie.
Cette situation révèle une menace bien plus large : les comptes compromis servent de porte d’entrée, tandis que l’historique des relations avec les victimes devient une arme redoutable pour les escrocs. Les attaques ne sont plus isolées ; elles s’inscrivent dans une campagne organisée, où chaque détail est exploité pour maximiser l’impact.
Comment se protéger contre ces nouvelles menaces ?
- Vérifiez systématiquement l’identité de vos interlocuteurs : utilisez des canaux de communication officiels (comme LinkedIn) pour confirmer les demandes de réunion ou de partage de fichiers.
- Méfiez-vous des mises à jour logicielles inattendues : ne téléchargez jamais de logiciels via des liens ou des commandes envoyés pendant un appel ou un message.
- Activez la vérification en deux étapes : pour vos comptes sensibles (crypto, cloud, réseaux sociaux), cette mesure peut empêcher les accès non autorisés.
- Soyez vigilant face aux deepfakes : même si une voix ou une vidéo semble familière, demandez une confirmation supplémentaire avant d’agir.
- Éduquez vos équipes : dans un environnement professionnel, sensibilisez vos collaborateurs aux risques des attaques par ingénierie sociale et par IA.
Avec l’évolution rapide de l’IA, les arnaques deviennent de plus en plus difficiles à détecter. La vigilance et la prudence restent les meilleures armes pour se protéger contre ces nouvelles menaces.