La automatización mediante inteligencia artificial (IA) suele asociarse con la optimización de tareas, muchas de ellas previamente realizadas por humanos, con el objetivo de aumentar la productividad y la eficiencia. Sin embargo, un estudio reciente de investigadores de Microsoft ha revelado que los sistemas de IA más avanzados actuales presentan graves deficiencias en tareas laborales complejas.
El trabajo, aún no revisado por pares y detectado por IT Pro, analizó modelos de frontera como GPT 5.4 de OpenAI, Claude Opus 4.6 de Anthropic y Gemini 3.1 Pro de Google. Los resultados fueron contundentes: durante la ejecución de tareas complejas, estos sistemas de IA corrompieron, en promedio, el 25% del contenido en documentos. Los modelos más antiguos mostraron un desempeño aún peor.
Los investigadores concluyeron que los modelos de IA actuales no están preparados para ser integrados en flujos de trabajo delegados en la mayoría de los sectores. Este hallazgo es especialmente relevante en el caso de Microsoft, una empresa que ha invertido fuertemente en IA y que está intentando incorporar esta tecnología en casi todos los aspectos de su sistema operativo Windows 11, con resultados a menudo desastrosos. Curiosamente, el estudio no evaluó el propio asistente de IA de Microsoft, Copilot.
En otras palabras, los investigadores de la compañía tenían todo el incentivo para encontrar aspectos positivos en el uso de la IA en el entorno laboral. Sin embargo, descubrieron que confiar ciegamente en los modelos de lenguaje para gestionar documentos internos puede generar desde errores hasta la eliminación de datos críticos.
El fenómeno del "workslop" y su impacto en las empresas
A medida que los empleadores buscan reemplazar el trabajo humano con IA, este estudio se suma a una creciente evidencia sobre el "workslop" (o "chapucería laboral con IA"): contenido generado por IA de baja calidad que empleados negligentes o poco capacitados distribuyen entre sus compañeros, pero que finalmente requiere ser corregido por trabajadores humanos.
Investigaciones previas, como las realizadas por la Universidad de Stanford, han demostrado que este fenómeno está desgarrando empresas enteras, generando ineficiencias y aumentando la carga de trabajo en los equipos humanos.
"Los modelos de IA actuales no están listos para asumir responsabilidades críticas en entornos laborales" — Investigadores de Microsoft.