Il caso Emily Hart: quando l’IA crea influencer falsi e redditizi
Le piattaforme social sono piene di account falsi, ma il caso di Emily Hart è diverso. Dietro questo profilo, che si spacciava per una giovane influencer di destra americana, si nascondeva un 22enne studente di medicina indiano. Con foto, video e migliaia di follower, Hart era diventata una vera e propria personalità digitale, capace di generare milioni di visualizzazioni e guadagnare migliaia di dollari al mese.
Il suo creatore ha confessato a Wired di aver sfruttato la popolarità del profilo per monetizzare attraverso contenuti softcore su una piattaforma simile a OnlyFans e tramite la vendita di merchandising. Il tutto senza essere un esperto di tecnologia: bastava una buona conoscenza della cultura politica americana e un account Google Gemini.
L’IA come moltiplicatore di inganni online
Il caso di Emily Hart non è un’eccezione, ma un esempio di come l’intelligenza artificiale stia rendendo semplice, economico e redditizio creare profili falsi credibili. Il modello è replicabile: basta una manciata di prompt ben formulati per generare volti, voci e storie convincenti, che poi possono essere monetizzati attraverso pubblicità, sponsorizzazioni o vendita di contenuti esclusivi.
Altri esempi simili, come il profilo pro-Trump Jessica Foster, dimostrano che questo fenomeno sta diventando sempre più diffuso. Basta scorrere la pagina Esplora di Instagram per imbattersi in contenuti generati dall’IA, spesso senza alcuna etichetta che ne riveli l’origine artificiale.
Le regole esistono, ma l’applicazione è un fallimento
Le principali piattaforme social hanno politiche che vietano la diffusione di contenuti sintetici non dichiarati, soprattutto in ambiti sensibili come politica, salute, finanza e cronaca. Tuttavia, queste norme rimangono sulla carta. In pratica, l’applicazione è quasi inesistente per diversi motivi:
- Difficoltà di rilevamento: Gli strumenti di intelligenza artificiale generativa sono diventati così avanzati da rendere quasi impossibile distinguere un’immagine reale da una sintetica. I difetti tipici, come dita in eccesso o sfondi distorti, sono ormai rarissimi.
- Mancanza di watermark affidabili: Senza un sistema di marcatura digitale efficace, anche i sistemi automatici faticano a identificare i contenuti generati dall’IA.
- Enforcement debole: Le piattaforme preferiscono non intervenire per non rischiare di bloccare contenuti potenzialmente virali, anche se falsi.
Le “etichette nutrizionali” dei contenuti: una soluzione dimenticata
Per contrastare il fenomeno, era stato proposto un sistema chiamato Content Credentials, una sorta di “etichetta nutrizionale” per i contenuti digitali. Questo standard avrebbe permesso di tracciare l’origine e le modifiche di un’immagine attraverso i suoi metadati, rendendo più facile per le piattaforme segnalare contenuti sintetici.
Tuttavia, questa soluzione sta faticando a prendere piede. Meno dell’1% dei contenuti online attualmente utilizza questo sistema, e la maggior parte delle piattaforme non lo supporta ancora. Senza un impegno concreto da parte dei giganti del tech, il rischio è che l’IA continui a essere usata per diffondere disinformazione e truffe su larga scala.
«L’IA sta democratizzando la creazione di contenuti falsi, ma non sta democratizzando la trasparenza.»
– Esperto di sicurezza digitale, commentando il caso Emily Hart
Chi è responsabile di proteggere gli utenti?
La domanda rimane aperta: chi deve garantire che ciò che vediamo online sia reale? Le piattaforme social hanno la responsabilità di monitorare e segnalare i contenuti sintetici, ma finora hanno fallito. Gli utenti, dal canto loro, devono sviluppare un sano scetticismo e utilizzare strumenti di verifica, come reverse image search o applicazioni di rilevamento IA.
Nel frattempo, il fenomeno dei falsi influencer generati dall’IA è destinato a crescere, rendendo ancora più urgente una regolamentazione efficace e un’adozione diffusa degli standard di trasparenza.