AI-gestuurde oplichting in crypto bereikt kritiek punt

Een ervaren crypto-oprichter verloor bijna zijn laptop aan een hoogopgeleide oplichtingspoging. De fraudeurs maakten gebruik van een nagemaakte Microsoft Teams-call, waarbij ze AI-gestuurde deepfakes en nep-updates inzetten om toegang te krijgen tot zijn systeem. Dit incident illustreert hoe kunstmatige intelligentie de dreiging van cryptoscams naar een kritiek nieuw niveau tilt.

De aanval: een ogenschijnlijk legitieme Teams-call

De crypto-oprichter, die zichzelf als technisch onderlegd beschrijft, ontving een uitnodiging voor een Microsoft Teams-call van iemand die zich voordoet als Pierre Kaklamanos, een contactpersoon van de Cardano Foundation. De uitnodiging leek betrouwbaar: de afzender was iemand met wie de slachtoffer eerder had gesproken, inclusief videogesprekken. Tijdens de call zagen en hoorden de deelnemers een perfecte imitatie van de echte Pierre, ondersteund door twee andere vermeende medewerkers van de foundation.

Toen de call plotseling werd onderbroken, verscheen er een melding dat de Teams-software verouderd was en opnieuw geïnstalleerd moest worden via Terminal. De slachtoffer voerde de opdracht uit, maar zette zijn laptop uit vanwege een bijna lege batterij. Dit beperkte de schade, maar had anders ernstige gevolgen kunnen hebben. De aanvallers maakten gebruik van vertrouwen en vertrouwdheid – een klassieke tactiek van sociale ingenieurs, maar nu met een nieuwe, geavanceerde twist.

AI als nieuwe wapen in sociale manipulatie

Sociale ingenieurs vertrouwen al jaren op vertrouwdheid om slachtoffers te misleiden. Vroeger vereiste dit ofwel een gehackt account of weken van tekstgebaseerde interactie om vertrouwen op te bouwen. Een videogesprek was vaak de laatste stap om slachtoffers te overtuigen van de legitimiteit van de oproep. Met de komst van AI is het nu mogelijk om deze videogesprekken na te bootsen met een verbluffende nauwkeurigheid.

Microsoft documenteerde in 2026 vergelijkbare campagnes waarin kwaadaardige bestanden zich voordeden als legitieme werkplekapplicaties, zoals msteams.exe en zoomworkspace.clientsetup.exe. Fraudeurs gebruikten phishing-lures die de workflow van echte Teams- en Zoom-meetings nabootsten. Daarnaast waarschuwde Microsoft voor zogenaamde "ClickFix"-prompts op macOS-systemen, waarbij gebruikers opdrachten in Terminal moesten plakken om toegang te krijgen tot browserwachtwoorden, cryptowallets, cloudreferenties en ontwikkelaarsleutels.

De nep-Teams-update combineert beide tactieken: het misbruikt vertrouwen in videogesprekken en dwingt gebruikers om gevaarlijke opdrachten uit te voeren. Google Cloud's Mandiant-unit beschreef een vergelijkbare aanval op een cryptoproject. Een gehackt Telegram-account, een nagemaakte Zoom-meeting, een deepfake-achtige video van een executive en opdrachten die de infectie verspreidden. Hoewel Mandiant niet kon bevestigen welk AI-model werd gebruikt, bevestigde het wel dat de groep fake meetings en AI-tools inzette voor sociale manipulatie.

Pierre Kaklamanos waarschuwt voor gehackte accounts

Op 24 april plaatste de echte Pierre Kaklamanos een bericht op X (voorheen Twitter), waarin hij waarschuwde dat zijn Telegram-account was gehackt. Hij meldde dat iemand hem en andere mensen in de industrie imiteerde. Kaklamanos riep gebruikers op om geen links te klikken of afspraken te boeken via het gehackte account en om contact te verifiëren via LinkedIn-berichten. Tegen die tijd had de crypto-oprichter al een bericht gestuurd naar het gehackte account met het verzoek om over te schakelen naar Google Meet. De aanvaller, die nog steeds de identiteit van Pierre voorhield, antwoordde dat hij het druk had en stelde voor om de afspraak uit te stellen.

Deze interactie toont aan dat de aanval geen geïsoleerd incident was, maar onderdeel van een actieve campagne. Het gehackte Telegram-account fungeerde als de toegangspoort, terwijl de bestaande vertrouwensrelatie werd misbruikt om het slachtoffer te misleiden. Dit benadrukt hoe geavanceerd en doelgericht deze nieuwe vorm van oplichting is.

Hoe fraudeurs AI en vertrouwen combineren

De aanval volgde een duidelijk patroon:

  • Initiële benadering: "Pierre" benaderde het slachtoffer over een project genaamd Atrium en stelde een videogesprek voor. Omdat het slachtoffer eerder met Pierre had gesproken, inclusief via video, leek de uitnodiging legitiem.
  • Meeting-opzet: Een Microsoft Teams-uitnodiging voor de volgende dag. Teams is een veelgebruikte tool in de zakelijke wereld, wat de geloofwaardigheid versterkte.
  • Tijdens de call: Een perfecte imitatie van Pierre en andere deelnemers, ondersteund door een deepfake-video. Toen de call werd onderbroken, verscheen een nep-update-melding.
  • Uitvoering van de aanval: Het slachtoffer voerde de opdracht uit om de software te updaten, wat leidde tot een infectie van zijn systeem.

De toekomst van AI-gestuurde oplichting

Met de opkomst van geavanceerde AI-modellen zoals OpenAI's nieuwe beeldmodel wordt het steeds moeilijker om nep-content te detecteren. Fraudeurs kunnen nu realistische deepfakes en nep-updates creëren die bijna onmogelijk van echte content te onderscheiden zijn. Dit vormt een ernstige bedreiging voor zowel particulieren als bedrijven, vooral in sectoren waar vertrouwen en vertrouwdheid cruciaal zijn, zoals de cryptowereld.

Experts waarschuwen dat deze vorm van oplichting snel zal escaleren. Het is daarom essentieel om extra voorzichtig te zijn bij onverwachte verzoeken om software-updates, ongeacht hoe legitiem ze lijken. Gebruik altijd officiële kanalen om de identiteit van de afzender te verifiëren en vermijd het uitvoeren van opdrachten via Terminal tenzij je 100% zeker bent van de bron.

Tip van de redactie: Controleer altijd de afzender van een uitnodiging voor een videogesprek via een apart, officieel kanaal. Gebruik nooit onverwachte links of opdrachten, zelfs niet als ze afkomstig lijken te zijn van een vertrouwde bron. Wees alert op kleine afwijkingen in taalgebruik, stemgeluid of video-kwaliteit, die kunnen wijzen op een deepfake.