Een gezicht dat niet van jezelf is – in realtime
‘Oh mijn god, oh mijn god,’ riep ik uit toen ik mijn eigen gezicht op het scherm zag verschijnen – maar niet op mijn lichaam. De baardstoppels, de grijns, zelfs de wallen onder mijn ogen: alles klopte. Ik zat in een Microsoft Teams-gesprek, maar de persoon tegenover mij was niet wie hij leek te zijn. Met behulp van een gaminglaptop en geavanceerde software veranderde zijn gezicht in het mijne. De deepfake kneep in zijn wang, bedekte zijn neus en streek over zijn kin, zonder dat de illusie verbrak.
Waar traditionele deepfakes vaak een vaststaand filmpje vervalsen, biedt deze tool iets anders: de mogelijkheid om live tijdens een videogesprek in iemands gezicht te veranderen. Na weken correspondentie met Chinese verkopers van de software, die zich voordoen als ‘Haotian AI’, kreeg ik toegang tot het programma. Het werkt naadloos met platforms die we dagelijks gebruiken: WhatsApp, Microsoft Teams, Zoom, TikTok, Instagram en YouTube.
De volgende stap in fraude: deepfakes die je kunt aanpassen
Haotian AI vertegenwoordigt een nieuwe fase in cybercriminaliteit. Waar fraudeurs voorheen afhankelijk waren van vooraf gemaakte deepfake-video’s, kunnen ze nu in realtime hun uiterlijk aanpassen om slachtoffers te misleiden. Denk aan romancefraude, belastingfraude of nepontvoeringen: deze vormen van oplichting worden door de technologie nog gevaarlijker.
Ons onderzoek toont aan dat Haotian AI niet alleen een technisch hoogstandje is, maar ook een lucratief bedrijfsmodel. De software heeft volgens onze bevindingen al meer dan 4 miljoen dollar opgeleverd voor de makers. Daarnaast blijkt dat Haotian AI verbonden is met Chinese witwasnetwerken en dienstverleners voor grote oplichtingscentra in Zuidoost-Azië.
Hoe werkt de software?
Haotian AI is waarschijnlijk gebaseerd op open-source gezichtswissel-tools, maar de echte waarde ligt in de technische ondersteuning. Zelfs minder technisch onderlegde criminelen kunnen hiermee aan de slag. De software past zich aan aan wisselende lichtomstandigheden en objecten die voor het gezicht verschijnen, zoals een hand of een telefoon. Demovideo’s op Telegram tonen hoe een Aziatische vrouw in een oogwenk verandert in een andere persoon.
De gebruikersinterface van Haotian AI claimt: ‘Het is ver voor op alles wat momenteel op de markt is.’
Waarom is dit een probleem voor techbedrijven en het publiek?
De opkomst van realtime deepfake-software zoals Haotian AI stelt techbedrijven en overheden voor een grote uitdaging. Terwijl bedrijven zoals Microsoft en Zoom al moeite hebben met het detecteren van traditionele deepfakes, is het bijna onmogelijk om live manipulatie te herkennen. Slachtoffers hebben geen kans om de fraude te doorzien, omdat de verandering gebeurt terwijl ze live met de dader praten.
Ons onderzoek is de eerste keer dat een journalist daadwerkelijk met deze software heeft kunnen experimenteren. We hebben vastgesteld dat Haotian AI niet alleen wordt gebruikt voor persoonlijke fraude, maar ook voor het impersoneren van autoriteiten, zoals een Amerikaanse politieafdeling. Dit maakt de tool nog gevaarlijker, omdat slachtoffers sneller geneigd zijn te geloven in de legitimiteit van de oplichting.
Wie staat achter Haotian AI?
Haotian AI lijkt te worden verkocht via Chinese platforms en is verbonden met grote oplichtingsnetwerken in Zuidoost-Azië. Onze bevindingen tonen aan dat de makers van de software miljoenen dollars hebben verdiend met de verkoop en het gebruik van de tool. Daarnaast blijkt dat de software wordt ingezet in scam compounds, waar duizenden mensen tegelijkertijd worden opgelicht.
De makers van Haotian AI benadrukken de gebruiksvriendelijkheid van hun product. Met technische ondersteuning kunnen zelfs beginnende criminelen de software effectief inzetten. Dit vergroot de dreiging voor zowel particulieren als bedrijven wereldwijd.
Wat kunnen slachtoffers doen?
Als je vermoedt dat je te maken hebt gehad met een deepfake-fraude, zijn er een paar stappen die je kunt nemen:
- Controleer altijd de identiteit van de persoon aan de andere kant van de lijn, vooral als het gaat om financiële verzoeken.
- Gebruik extra verificatiemethoden, zoals een telefoongesprek met een bekend nummer of een persoonlijk ontmoeting.
- Meld verdachte activiteiten bij de politie of een cybercrime-afdeling.
- Wees alert op ongebruikelijke verzoeken, zoals het doorgeven van pincodes of het overmaken van geld.
De toekomst van fraude: wat kunnen we verwachten?
Met de voortdurende verbetering van deepfake-technologie wordt het steeds moeilijker om fraude te detecteren. Techbedrijven werken aan betere detectiemethoden, maar criminelen blijven een stap voor. De opkomst van realtime deepfake-software zoals Haotian AI laat zien dat fraude niet langer alleen een kwestie is van een nep-e-mail of een vooraf gemaakte video, maar van live manipulatie tijdens een gesprek.
Voor overheden en techbedrijven is het zaak om snel te reageren op deze nieuwe dreiging. Het publiek moet worden gewaarschuwd voor de gevaren van realtime deepfakes, en er moeten betere beveiligingsmaatregelen worden ontwikkeld om fraude te voorkomen.
‘Dit is een gamechanger voor fraudeurs. Ze kunnen nu iedereen imiteren, van een familielid tot een politieagent, en dat live tijdens een videogesprek.’ – Onderzoeker cybercriminaliteit