La IA divide a la opinión pública: más miedo que entusiasmo

La inteligencia artificial (IA) sigue siendo uno de los avances tecnológicos más comentados de la generación actual, pero su popularidad no está a la altura de su fama. Aunque la mayoría de los estadounidenses reconocen su importancia, recientes encuestas del Pew Research Center revelan que predomina la preocupación sobre el entusiasmo. Los ciudadanos temen especialmente su impacto en la creatividad y las relaciones personales.

Datos de Quinnipiac confirman esta tendencia: a pesar de que el uso de la IA sigue creciendo, las opiniones se vuelven más negativas. Entre los principales recelos destacan la pérdida de empleos, el fraude, los consejos cuestionables, el alto consumo energético y, en el peor de los casos, escenarios apocalípticos que incluyen la extinción de la humanidad.

En marzo de este año, un 57% de los encuestados por NBC News afirmaron que los riesgos de la IA no compensan sus posibles beneficios. Pero, ¿a qué se debe este rechazo? Uno de los factores clave podría ser el mensaje que transmiten los líderes de las empresas más influyentes del sector.

Los CEOs de la IA: ¿miedo o responsabilidad?

El pasado mes, Anthropic, una de las gigantes de la IA, anunció que limitaría el acceso a su nueva herramienta de ciberseguridad, Mythos, por considerarla demasiado potente para un uso generalizado. El riesgo, según la compañía, era que cayera en manos de criminales u otros actores malintencionados. Sam Altman, CEO de OpenAI, criticó esta decisión tachándola de "marketing basado en el miedo".

Sin embargo, la ironía es que OpenAI, empresa rival, lanzó poco después su propia herramienta de seguridad... y también restringió su acceso. Este es solo un ejemplo reciente de una paradoja en el sector: las empresas de IA parecen empeñadas en recordar a sus clientes, en cada lanzamiento, los posibles peligros de su tecnología.

Aunque este enfoque puede formar parte del ciclo de hype tecnológico, y en cierto modo las empresas están cumpliendo con su responsabilidad, el creciente escepticismo del público sugiere que esta estrategia no está funcionando. Quizá insistir en lo peligroso que es su producto no sea la mejor manera de construir una marca sólida.

El caso de Altman es ilustrativo: su domicilio fue atacado con un cóctel Molotov, un incidente que algunos vinculan con el discurso alarmista sobre la IA. Este tipo de actitudes negativas no son aisladas ni nuevas en el sector.

El precedente de GPT-4 y las advertencias extremas

Cuando OpenAI lanzó GPT-4 en marzo de 2023, publicó un informe técnico que, junto a los detalles sobre su avance tecnológico, incluía una sección dedicada a los posibles usos malintencionados de la herramienta, como la fabricación de bombas o la mezcla de sustancias peligrosas.

Poco después, cientos de investigadores y ejecutivos del sector, entre ellos representantes de Anthropic, Google DeepMind y OpenAI, firmaron una carta abierta advirtiendo que la IA podría suponer un riesgo de extinción comparable al de una guerra nuclear.

Muchos de estos líderes han abogado por una mayor regulación gubernamental. El caso legal actual entre Elon Musk y OpenAI recuerda que la empresa se fundó como una organización sin ánimo de lucro precisamente porque se consideraba que la tecnología era demasiado arriesgada para estar sujeta únicamente a la lógica de "mover rápido y romper cosas" del sector privado.

¿Están los mensajes de los CEOs perjudicando a la IA?

Es comprensible que las empresas no oculten los riesgos de sus productos, pero surge la duda: ¿deben sus equipos de marketing permitir que el miedo y el catastrofismo definan la imagen de la marca? Durante el Super Bowl de este año, se emitieron numerosos anuncios sobre IA, pero muchos se centraron en conceptos demasiado abstractos, como "puedes construir cualquier cosa", sin destacar beneficios concretos para el consumidor.

En el día a día, los mensajes que llegan al público general suelen centrarse en aspectos negativos, como la suplantación de identidades o la desinformación, en lugar de resaltar las ventajas prácticas que la tecnología ya ofrece, como la automatización de tareas repetitivas o la mejora en la atención médica.

Quizá sea el momento de que las empresas de IA equilibren su discurso, destacando no solo los riesgos, sino también el valor real que pueden aportar a la sociedad. De lo contrario, el escepticismo actual podría convertirse en un obstáculo insalvable para su adopción masiva.