Las cuentas falsas existen desde los primeros días de las redes sociales. Sin embargo, cuando se descubrió que Emily Hart, una supuesta influencer conservadora con millones de seguidores, era en realidad un estudiante indio de 22 años, el caso podría haber parecido rutinario: otro engaño, otro perfil falso, otro estafador más en internet. Pero esta vez había algo distinto. Emily Hart no era un simple 'egg' anónimo. Era una influencer con fotos, vídeos y miles de seguidores que interactuaban con sus publicaciones, algunas de las cuales superaban el millón de visualizaciones.

El creador de Emily Hart confesó a Wired que, durante el tiempo que estuvo activa, generaba miles de dólares al mes subiendo vídeos de contenido softcore a una plataforma competidora de OnlyFans y vendiendo merchandising. Lo más sorprendente es que este personaje no fue creado por un equipo de desarrolladores, sino por un estudiante con problemas económicos que dominaba la cultura política estadounidense y que utilizó una cuenta de Google Gemini para dar vida a Emily.

El caso de Emily Hart no es un hecho aislado. Es la punta de un iceberg que expone cómo la inteligencia artificial ha democratizado el engaño a gran escala. La facilidad para crear personajes convincentes y monetizar su influencia ha convertido la falsificación en un negocio rentable y accesible para casi cualquier persona.

El patrón de las influencers falsas con IA

El verdadero problema no es Emily Hart en sí, sino el patrón que ha sentado. Según el reportaje de Wired, existen otros casos similares, como el de Jessica Foster, otra falsa influencer pro-Trump. Si revisamos el apartado 'Explorar' de Instagram, no es difícil encontrar perfiles con contenido generado por IA que, en la mayoría de los casos, no se etiquetan como tales.

Emily Hart demostró que crear una identidad falsa con IA es barato, rápido, lucrativo y fácil de replicar. Las grandes plataformas tienen políticas que exigen la declaración de contenidos sintéticos, especialmente cuando estos podrían confundirse con realidad y abordan temas sensibles como política, salud, finanzas o noticias actuales. De no hacerlo, las cuentas pueden ser congeladas, desmonetizadas o incluso eliminadas. Sin embargo, estas normas rara vez se aplican en la práctica.

¿Por qué falla la detección de contenidos generados por IA?

La principal razón es que la detección automática de IA se ha vuelto cada vez más complicada. Los generadores de imágenes actuales están muy por delante de los modelos que crearon fenómenos virales como el vídeo de 'Will Smith comiendo espaguetis'. Los errores obvios, como dedos de más o fondos que desaparecen, ya no son tan evidentes. Sin marcas de agua o metadatos claros, incluso los sistemas automatizados tienen dificultades para distinguir entre una imagen real y una generada por IA.

Las 'etiquetas nutricionales' que nunca llegan

Para intentar solucionar este problema, se propuso un nuevo estándar: las Credenciales de Contenido. Este sistema permite rastrear cómo se creó y modificó una imagen a lo largo de su ciclo de vida. La información se guarda en los metadatos del archivo, lo que permitiría a las plataformas mostrarla al usuario. Sin embargo, este sistema sigue sin implementarse de forma generalizada.

Mientras tanto, los creadores de contenidos falsos siguen aprovechando las lagunas en los sistemas de moderación. Plataformas como Instagram, TikTok o X (antes Twitter) no siempre verifican activamente si un perfil está utilizando IA para generar sus publicaciones. La responsabilidad recae, en gran medida, en los usuarios, que deben cuestionar la autenticidad de lo que consumen. Pero, ¿hasta qué punto es justo exigirle a una persona común que detecte un engaño tan sofisticado?

El caso de Emily Hart es solo el comienzo. Con la IA cada vez más accesible, el riesgo de que el engaño se convierta en la norma es alto. Las redes sociales, que ya luchan contra la desinformación, enfrentan ahora un nuevo desafío: ¿cómo proteger a los usuarios cuando la tecnología que debería ayudarnos a detectar mentiras se usa para crearlas?