Um estudo recente publicado por Alexander Lerchner, cientista sênior da DeepMind, empresa de inteligência artificial do Google, levanta uma questão polêmica: nenhum sistema computacional, incluindo modelos de linguagem avançados, jamais desenvolverá consciência.

A conclusão de Lerchner entra em conflito direto com o discurso de líderes do setor, como Demis Hassabis, CEO da DeepMind, que recentemente afirmou que a Inteligência Artificial Geral (AGI) terá um impacto dez vezes maior que a Revolução Industrial, mas em velocidade dez vezes superior.

O artigo, intitulado "The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness" ("A Falácia da Abstração: Por que a IA Pode Simular, mas Não Instanciar a Consciência"), sugere que as narrativas otimistas promovidas pelas empresas de IA não resistem a uma análise rigorosa.

Outros especialistas em consciência consultados pela imprensa consideram o trabalho de Lerchner bem fundamentado, embora afirmem que argumentos semelhantes já são discutidos há décadas por filósofos e pesquisadores.

Johannes Jäger, biólogo evolucionário e filósofo, criticou a abordagem de Lerchner, alegando que o cientista reinventou conceitos já estabelecidos e desconhece literatura fundamental sobre o tema. "Acho que ele chegou a essa conclusão sozinho e reinventou a roda. Não está bem informado, especialmente em filosofia e, definitivamente, não em biologia", declarou Jäger.

O cerne do argumento de Lerchner gira em torno da ideia de que qualquer sistema de IA depende de um agente cognitivo ativo e experiencial — ou seja, um ser humano — para transformar a realidade física em dados estruturados e significativos. Em outras palavras, a IA não consegue organizar o mundo por si mesma; ela depende de rotuladores de dados, muitas vezes trabalhadores mal remunerados em países como os da África, que classificam imagens para treinar modelos.

A chamada "falácia da abstração" refere-se à crença equivocada de que, pelo fato de a IA manipular linguagem, símbolos e imagens de forma a simular comportamentos humanos, ela poderia, algum dia, desenvolver consciência. Lerchner argumenta que isso é impossível sem um corpo físico.

"Você tem outras motivações como ser humano. É um pouco mais complexo do que isso, mas todas elas surgem do fato de que você precisa comer, respirar e investir trabalho físico constantemente para se manter vivo. Nenhum sistema não vivo faz isso", explicou Jäger. "Um grande modelo de linguagem (LLM) não faz isso. É apenas um conjunto de padrões em um disco rígido. Ele recebe um prompt, executa até concluir a tarefa e, depois, encerra. Não tem nenhum significado intrínseco. Seu significado vem de como um agente humano externamente definiu esse significado."

Embora seja possível imaginar uma IA incorporada com necessidades físicas semelhantes às humanas, Jäger destacou que esse cenário não garantiria consciência. No entanto, ele observou que essa discussão vai além do escopo do artigo de Lerchner, que não cita grande parte da literatura existente sobre o tema, composta por décadas de pesquisa.