A inteligência artificial, considerada a inovação tecnológica mais badalada da geração, não tem conquistado o público americano. Embora a maioria reconheça sua importância, pesquisas recentes do Pew Research Center revelam mais preocupação do que empolgação, especialmente sobre seus efeitos na criatividade e nos relacionamentos.

Levantamentos da Quinnipiac mostram que a opinião pública está se deteriorando, mesmo com o aumento do uso da tecnologia. A IA é associada a perda de empregos, fraudes, conselhos duvidosos, alto consumo energético e cenários apocalípticos, incluindo até mesmo a extinção da humanidade. Em março, 57% dos entrevistados em uma pesquisa da NBC afirmaram que os riscos da IA não compensam seus benefícios.

Há várias razões para essa rejeição, mas um fator-chave pode ser a comunicação dos líderes das principais empresas de IA. No mês passado, a Anthropic, gigante do setor, anunciou a limitação no acesso à sua nova ferramenta de cibersegurança, o Mythos, por considerá-la potencialmente perigosa nas mãos de criminosos. Sam Altman, CEO da rival OpenAI, classificou a decisão como "marketing baseado no medo". No entanto, poucas semanas depois, a própria OpenAI lançou uma ferramenta semelhante — e também restringiu seu acesso.

Esse é apenas um exemplo recente de um padrão preocupante: as empresas de IA parecem empenhadas em lembrar os clientes, a cada lançamento, dos riscos de suas tecnologias. Embora isso faça parte do ciclo de hype, também pode ser uma estratégia de responsabilidade corporativa. No entanto, a crescente rejeição do público sugere que o pessimismo constante dos CEOs não é a melhor abordagem para construir uma marca forte. (A casa de Altman ter sido alvo de um coquetel molotov não é um bom sinal.)

Esse discurso pessimista não é novo nem isolado. Quando a OpenAI lançou o GPT-4, em março de 2023, publicou um relatório técnico que, além de destacar avanços históricos, dedicou uma seção inteira aos riscos de uso indevido, como fabricação de bombas ou manipulação de substâncias perigosas. Pouco depois, centenas de pesquisadores e executivos do setor, incluindo nomes da Anthropic, Google DeepMind e OpenAI, assinaram uma carta aberta alertando que a IA poderia representar um risco de extinção comparável ao de uma guerra nuclear.

Muitos executivos do setor defendem a regulamentação governamental. O processo judicial atual entre Elon Musk e a OpenAI reforça esse ponto: a empresa foi fundada como uma organização sem fins lucrativos justamente porque a tecnologia era considerada too risky para ser desenvolvida apenas sob a lógica do "move fast and break things".

É claro que as empresas não devem esconder os riscos de seus produtos, mas há um limite para o quanto o medo deve definir suas marcas. Durante o Super Bowl deste ano, várias propagandas de IA foram ao ar, mas muitas focaram em conceitos abstratos como "você pode simplesmente construir coisas", sem transmitir benefícios concretos. Enquanto isso, no dia a dia, os benefícios reais da tecnologia para o consumidor comum parecem cada vez mais distantes da narrativa apresentada.