La paradoja de la inteligencia artificial: ¿por qué domina las matemáticas pero no entiende una factura?
Existe una pregunta incómoda que el sector del software empresarial evita abordar: ¿por qué los modelos de IA más avanzados pueden resolver problemas matemáticos de nivel olímpico, pero no logran extraer correctamente el total de una factura? No es una cuestión teórica. Quien esto escribe lleva dos décadas desarrollando software de automatización para empresas de primer nivel, procesando miles de millones de documentos. Y la respuesta no es sencilla.
El mito de los modelos "todo en uno"
La explicación convencional sugiere que las matemáticas son un problema de razonamiento, mientras que las facturas son un desafío de percepción: diseños desordenados, escaneos de baja calidad, tipografías variables. Según este argumento, solo se necesitan modelos más potentes para resolverlo en una generación. Pero esto es un error.
Matemáticas vs. facturas: dos problemas radicalmente distintos
Analicemos primero el caso de las matemáticas. Cuando un modelo de lenguaje grande (LLM) resuelve un problema de olimpiada, no está razonando desde cero. Los problemas de competencia matemática se basan en un conjunto limitado de técnicas probadas, combinadas de formas predecibles. El modelo ha sido entrenado con miles de demostraciones, aprendiendo a recombinar estos bloques de manera eficiente. Es, en esencia, un ejercicio de pattern matching composicional.
El ajedrez, en cambio, es lo opuesto. Cada posición en el juego medio es única. Conocer todas las estrategias posibles no garantiza que un sacrificio concreto funcione en una partida específica. La única forma de saberlo es calcular las líneas concretas. Los motores de ajedrez resolvieron este problema no haciendo la red neuronal más grande, sino construyendo un sistema alrededor de ella.
¿Dónde está el verdadero riesgo?
La mayoría de los trabajos administrativos —procesamiento de reclamaciones, revisiones de cumplimiento, análisis de préstamos— se parecen más al problema matemático que al del ajedrez. Aplican reglas conocidas a nuevos casos. Un LLM puede manejar entre el 85% y el 95% del volumen, y eso ya es un avance significativo. Pero el verdadero peligro está en el 5% al 15% restante.
Estos son los casos donde el patrón no encaja. Y lo más alarmante: el modelo no sabe que está atascado. Proporciona una respuesta confiada, incluso cuando es incorrecta. Tras años de pruebas con modelos de extracción de datos en documentos reales —no casos extremos—, la conclusión es clara: ni siquiera la tarea más simple, como leer un número y colocarlo en el campo correcto, se realiza con un 100% de precisión. Un humano con menos experiencia lo haría mejor.
La ilusión de la automatización total
La industria tecnológica suele vender la idea de que la IA puede reemplazar procesos enteros. Sin embargo, la realidad es que los modelos actuales son excelentes para tareas repetitivas y predecibles, pero fallan en los márgenes. Y esos márgenes son donde se esconden los errores costosos.
En un entorno empresarial, donde un solo dato erróneo puede generar pérdidas millonarias o incumplimientos regulatorios, confiar ciegamente en la IA sin supervisión humana es un riesgo inaceptable. La solución no pasa por esperar a modelos más avanzados, sino por diseñar sistemas híbridos donde la máquina y el humano trabajen en conjunto, cada uno en lo que mejor hace.
«La IA no necesita ser perfecta para ser útil, pero sí necesita ser fiable en lo esencial. Y hoy, en lo más básico, falla».