«Oh mio Dio, oh mio Dio» ho gridato mentre osservavo il mio volto proiettato sul corpo di un’altra persona. Era tutto lì: la barba di cinque giorni, il sorriso sciocco, persino le borse sotto gli occhi. Ero in una videochiamata su Microsoft Teams, ma l’interlocutore non era chi diceva di essere. Grazie a un laptop da gaming e a un software all’avanguardia, venduto illegalmente su piattaforme cinesi, il suo volto si è trasformato nel mio in tempo reale. Il deepfake ha pizzicato la sua guancia, coperto il naso e accarezzato il mento, senza che l’illusione si interrompesse.

Questa non è la solita tecnologia di deepfake, che sovrappone un volto a un video esistente. Haotian AI, questo il nome del software, promette qualcosa di molto più pericoloso: la capacità di modificare l’aspetto di una persona in diretta durante una videochiamata. Dopo settimane di negoziazioni con i venditori cinesi, 404 Media è riuscita a ottenere una copia del programma e a testarlo in prima persona.

Un’arma per le truffe del futuro

Haotian AI è progettato per integrarsi con le piattaforme più usate al mondo: WhatsApp, Microsoft Teams, Zoom, TikTok, Instagram e YouTube. La sua capacità di modificare l’identità in tempo reale lo rende uno strumento ideale per truffatori di ogni tipo, dai romance scam alle frodi fiscali, fino alle estorsioni virtuali.

Secondo l’inchiesta di 404 Media, questa tecnologia rappresenta il prossimo passo evolutivo nelle frodi online, una minaccia che governi e aziende tecnologiche potrebbero non essere ancora pronti ad affrontare. I criminali possono ora assumere l’identità di chiunque, in qualsiasi momento, rendendo le truffe ancora più convincenti e difficili da smascherare.

Collegamenti con reti di riciclaggio e truffe asiatiche

L’indagine rivela che Haotian AI è già utilizzato da reti di riciclaggio di denaro cinesi e fa parte di un ecosistema che supporta i scam compounds del Sud-Est asiatico, strutture che ospitano migliaia di truffatori. Secondo i dati raccolti, il software avrebbe già fruttato oltre 4 milioni di dollari ai suoi creatori.

La tecnologia sembra basarsi su strumenti open source di face swap, ma il suo vero valore aggiunto è il supporto tecnico avanzato. Questo significa che anche i criminali meno esperti possono utilizzare deepfake in tempo reale, aprendo la strada a un’ondata di frodi su scala globale.

Come funziona Haotian AI

Durante i test, 404 Media ha scoperto che Haotian AI è in grado di adattarsi a cambiamenti di illuminazione e oggetti che passano davanti al volto, come dimostrano alcuni video demo pubblicati su Telegram. In un filmato, una donna asiatica si trasforma magicamente in un’altra persona, con una fluidità impressionante.

Il software promette di essere «molto avanti rispetto a tutto ciò che esiste sul mercato», come recita l’interfaccia utente. La sua forza non sta solo nella qualità dei deepfake, ma nella facilità d’uso: basta un computer e una connessione internet per iniziare a truffare.

Le conseguenze per la sicurezza online

L’ascesa di Haotian AI solleva preoccupazioni sulla vulnerabilità delle piattaforme di comunicazione. WhatsApp, Zoom e Teams non sono progettati per rilevare deepfake in tempo reale, il che li rende potenziali veicoli per frodi sofisticate. Anche le forze dell’ordine faticano a stare al passo: l’inchiesta ha rilevato che Haotian AI è stato pubblicizzato come uno strumento per impersonare dipartimenti di polizia statunitensi, aumentando il rischio di truffe mirate.

Gli esperti avvertono che, senza regolamentazioni adeguate e sistemi di rilevamento più avanzati, questa tecnologia potrebbe rivoluzionare il panorama delle frodi digitali. Le vittime potrebbero non accorgersi di essere state ingannate fino a quando non sarà troppo tardi.

Cosa possiamo fare per proteggerci

Gli investigatori consigliano di verificare sempre l’identità dell’interlocutore, soprattutto in videochiamate con persone sconosciute. Alcuni segnali di allerta includono:

  • Movimenti del volto innaturali o asincroni con la voce;
  • Cambiamenti improvvisi di illuminazione o sfondo;
  • Richieste di denaro o informazioni sensibili in contesti insoliti.

Inoltre, le piattaforme dovrebbero investire in sistemi di rilevamento dei deepfake e in algoritmi in grado di identificare comportamenti sospetti durante le videochiamate.

«Questa tecnologia non è più un futuro distopico, ma una realtà che sta già colpendo migliaia di persone. La domanda non è se le truffe miglioreranno, ma quando riusciremo a fermarle». — Inchiesta 404 Media