Grandes empresas de IA estão apostando quase todos os seus recursos em modelos transformadores pré-treinados como caminho para atingir a Inteligência Artificial Geral (AGI), forma avançada de IA com capacidade de raciocínio semelhante ao humano. Essa estratégia depende fortemente do backpropagation, algoritmo padrão para treinar redes neurais profundas.

No entanto, especialistas como Ben Goertzel, criador do termo AGI, são céticos. "A indústria comercial de IA está apenas apostando tudo em copiar o GPT em várias versões, o que, em minha opinião, é um desperdício de recursos, pois todos esses modelos de linguagem grande fazem basicamente a mesma coisa", afirmou.

Goertzel argumenta que a concentração excessiva em uma única abordagem é arriscada. Modelos transformadores exigem bilhões em poder computacional para treinamento e manutenção, e os ganhos de escala estão se tornando cada vez mais caros. Além disso, a falta de diversificação pode limitar inovações fundamentais.

Um dos principais problemas dos transformadores, segundo Goertzel, é a incapacidade de aprender continuamente com novas experiências, ao contrário dos humanos. "Eles não atualizam seus parâmetros internos em tempo real; voltam aos padrões iniciais a cada nova interação, sem absorver efetivamente as trocas anteriores", explicou.

Pesquisadores de empresas como Google DeepMind, Microsoft e Safe Superintelligence vêm explorando alternativas, como arquiteturas de redes neurais que permitem aprendizado contínuo. Goertzel destaca a diversidade da equipe da DeepMind, que possui experiência em diferentes paradigmas de IA.

Enquanto isso, startups como a japonesa Sakana AI, fundada em 2023 por Llion Jones (um dos nove inventores dos modelos transformadores) e David Ha (ex-pesquisador da DeepMind), buscam inovações. Recentemente, a empresa lançou o Sakana Fugu, um sistema de orquestração multiagente que combina modelos de fronteira de empresas como OpenAI, Google e Anthropic.

Goertzel mantém otimismo quanto à chegada da AGI nos próximos anos, mas acredita que será necessário ir além do simples escalonamento de modelos de linguagem atuais. "A AGI exigirá abordagens mais flexíveis e adaptativas, não apenas mais poder computacional", concluiu.