La amenaza silenciosa de los 'enjambres de IA'

La inteligencia artificial no se limita a chatbots o generadores de memes. Según un estudio reciente publicado en la prestigiosa revista Science, su capacidad para difundir desinformación a gran escala representa un peligro real para la democracia. Los investigadores advierten sobre el uso de enjambres de IA: conjuntos masivos de herramientas autónomas que imitan el comportamiento humano en internet y redes sociales.

Manipulación a escala global

El estudio analiza cómo los modelos de lenguaje avanzados (LLMs) y los agentes autónomos pueden coordinarse para influir en la opinión pública a nivel poblacional. Los datos son alarmantes: la manipulación organizada en redes sociales ha pasado de afectar a 28 países en 2017 a 70 en la actualidad. Desde Filipinas hasta Estados Unidos, pasando por Brasil e Irlanda, las democracias ya sufren las consecuencias de estas tácticas.

Los ejemplos son claros. En Brasil e Irlanda, la desinformación impulsada por IA ha dejado huella en procesos electorales, demostrando que las instituciones democráticas son vulnerables. Los investigadores señalan que estos sistemas, al combinar el razonamiento de los LLMs con arquitecturas multiagente, pueden coordinarse de forma autónoma, infiltrarse en comunidades y fabricar consensos de manera eficiente.

El desafío de regular la desinformación con IA

Legislar contra estas prácticas plantea dilemas éticos y legales. ¿Pueden considerarse redes de propaganda automatizada como libertad de expresión? La realidad es que algunas de estas redes operan abiertamente como empresas emergentes, atrayendo millones en financiación de capital riesgo. Antes incluso de la IA, plataformas sociales incontrolables ya habían creado el caldo de cultivo perfecto para campañas de desinformación a gran escala, con consecuencias devastadoras, como el genocidio de los rohinyás en Myanmar facilitado por Facebook.

Hoy, los actores de extrema derecha ya están utilizando estas herramientas para avivar el odio, por ejemplo, contra beneficiarios de ayudas sociales o inmigrantes. Lo que está por venir podría ser aún más peligroso, y lo preocupante es la falta de voluntad política para frenarlo.

El precedente de la desinformación sin IA

Antes de la llegada de la inteligencia artificial, las redes sociales ya habían demostrado su potencial para distorsionar la realidad. Casos como el de Myanmar son un recordatorio de que la desinformación no es un fenómeno nuevo, pero con la IA, su escala y sofisticación han alcanzado niveles sin precedentes.

¿Qué sigue?

La comunidad científica y los gobiernos deben actuar con urgencia para establecer marcos regulatorios que protejan los procesos democráticos. Sin embargo, la pregunta sigue en el aire: ¿habrá suficiente voluntad política para enfrentar este desafío antes de que sea demasiado tarde?

Más sobre ética en IA

Activistas denuncian que empresas tecnológicas emplean tácticas cuestionables para construir centros de datos en tierras indígenas.

Fuente: Futurism