Pesquisadores da Microsoft publicaram um estudo inédito, ainda não revisado por pares, que coloca em xeque a eficácia dos sistemas de IA mais avançados em tarefas reais de trabalho. Segundo a pesquisa, obtida pelo IT Pro, modelos como o GPT 5.4 da OpenAI, o Claude Opus 4.6 da Anthropic e o Gemini 3.1 Pro do Google apresentam falhas graves ao lidar com documentos complexos, corrompendo cerca de 25% do conteúdo analisado. Em comparação, modelos mais antigos tiveram desempenho ainda pior.

A conclusão dos pesquisadores é contundente: "os modelos não estão prontos para fluxos de trabalho delegados na maioria dos setores". Essa descoberta é especialmente relevante vinda da Microsoft, empresa que tem investido bilhões em IA e integrado a tecnologia em praticamente todos os aspectos do Windows 11 — muitas vezes com resultados desastrosos. Curiosamente, o estudo não avaliou o próprio assistente de IA da Microsoft, o Copilot.

Os achados reforçam um problema crescente no mercado: o "workslop", termo que descreve a prática de funcionários sobrecarregados ou mal treinados usarem IA para gerar conteúdo ou soluções inadequadas, que acabam sendo repassadas a colegas e exigem retrabalho manual. Especialistas alertam que, sem supervisão humana adequada, a automação por IA pode gerar mais problemas do que soluções.

O que é "workslop" e por que ele está destruindo empresas?

Um estudo da Universidade de Stanford já havia identificado como a adoção acelerada de IA sem critérios está fragmentando processos internos em empresas. Funcionários, pressionados por metas de produtividade, muitas vezes recorrem a ferramentas de IA para agilizar tarefas, mas acabam produzindo resultados inconsistentes ou até mesmo deletérios. Esses erros, quando não detectados a tempo, sobrecarregam outros setores e prejudicam a eficiência geral.

O fenômeno não se limita a documentos: sistemas de IA mal implementados também podem gerar respostas incorretas em atendimento ao cliente, erros em relatórios financeiros ou até mesmo falhas em códigos de programação. Empresas que apostam cegamente na automação sem considerar os riscos enfrentam prejuízos operacionais e, em casos extremos, crises de confiança.

"A confiança cega em modelos de IA para tarefas críticas é um erro estratégico. Até que esses sistemas demonstrem confiabilidade comprovada, a supervisão humana deve ser obrigatória." — Pesquisador sênior da Microsoft, não identificado.

Implicações para o futuro do trabalho

O estudo da Microsoft chega em um momento de intenso debate sobre o papel da IA no mercado de trabalho. Enquanto algumas empresas reduzem equipes em nome da eficiência, pesquisas como esta mostram que a automação ainda não é uma solução mágica. Especialistas defendem que, em vez de substituir trabalhadores, a IA deve ser usada como uma ferramenta de apoio, sempre supervisionada por profissionais qualificados.

Para os executivos que ainda consideram a IA uma solução rápida para cortes de custos, o alerta é claro: a pressa pode sair cara. Erros em documentos, dados corrompidos e processos mal executados não apenas prejudicam a produtividade, como também expõem as empresas a riscos legais e reputacionais.

Fonte: Futurism