La primera ministra italiana, Giorgia Meloni, publicó ayer en la red social X una imagen generada por inteligencia artificial en la que aparece vestida solo con lencería. El objetivo no fue viralizar un contenido polémico, sino alertar sobre la facilidad con la que se pueden crear imágenes y vídeos falsos pero convincentes.
«Los deepfakes son una herramienta peligrosa, porque pueden engañar, manipular y atacar a cualquiera», declaró Meloni en su publicación. «Yo puedo defenderme, pero muchos otros no». Aunque la imagen no es técnicamente un deepfake —ya que no superpone su rostro sobre otro cuerpo—, sí es un ejemplo de cómo la IA generativa puede combinar elementos reales (rostros, cuerpos, voces) para crear contenido sintético 100% nuevo y aparentemente auténtico.
Meloni ya había denunciado en 2024 a dos hombres por crear un deepfake pornográfico con su imagen. Esta vez, bromeó sobre la calidad de los falsos, afirmando que «se ven mucho mejor que yo», y presentó la foto como un mensaje de servicio público al estilo de los años 2020.
«La regla debe ser siempre: verificar antes de creer y creer antes de compartir. Porque hoy me pasa a mí, mañana puede pasarle a cualquiera», escribió.
¿Por qué su gesto va más allá de un simple aviso?
Meloni no se limitó a dar consejos: se expuso públicamente para demostrar los riesgos reales de la IA generativa. Sin embargo, expertos señalan que el problema ya supera el ámbito de la educación y requiere acciones concretas.
La tecnología actual permite manipular la realidad de formas que erosionan la confianza en lo que vemos y escuchamos. Ejemplos recientes lo demuestran:
- Jessica Foster: Una influencer militar generada por IA, pro-Trump, acumuló un millón de seguidores en tres meses para redirigir a hombres hacia un sitio de fetiches adultos. Aunque su perfil presentaba errores evidentes de renderizado, sus seguidores ignoraron las incoherencias porque el contenido encajaba con sus creencias.
- Benjamin Netanyahu: Tras circular rumores sobre su supuesta muerte, un vídeo auténtico que lo mostraba vivo fue desestimado como deepfake por usuarios en internet, incluso después de que verificadores independientes confirmaran su autenticidad.
Estos casos reflejan cómo la IA puede amplificar sesgos psicológicos y distorsionar la percepción de la realidad, incluso cuando hay pruebas contundentes en contra.
La solución: ¿Qué deben hacer los gobiernos?
Ante un escenario donde la verdad objetiva ya no tiene fronteras claras, los expertos coinciden en que las campañas de concienciación ya no son suficientes. El coste humano y económico de la desinformación generada por IA exige intervención regulatoria urgente.
Los gobiernos deben presionar a las grandes tecnológicas para que implementen medidas que garanticen la transparencia en el contenido generado por IA. Solo así se podrá reconstruir la confianza en los medios digitales y proteger la democracia.
«Vivimos en el fin de la realidad tal como la conocíamos. Si no actuamos ahora, el daño será irreversible».