KI meistert Mathe, scheitert aber an Rechnungen
Warum können die fortschrittlichsten KI-Modelle der Welt Olympiad-Mathematik lösen, aber nicht zuverlässig den Gesamtbetrag einer Rechnung extrahieren? Diese Frage beschäftigt mich seit Jahren – nicht nur theoretisch, sondern aus praktischer Erfahrung. Als Entwickler von Automatisierungssoftware für Unternehmensdokumente habe ich über zwei Jahrzehnte Milliarden von Belegen für Großunternehmen verarbeitet. Die Antwort auf dieses Paradoxon ist entscheidend für die Zukunft der KI in der Unternehmenswelt.
Mathe vs. Rechnungen: Zwei unterschiedliche Herausforderungen
Die gängige Erklärung lautet: Mathematik ist ein Denkproblem, das KI heute gut bewältigt. Rechnungen hingegen sind ein Wahrnehmungsproblem – unordentliche Layouts, schlechte Scans. Die Lösung? Bessere Modelle, eine neue Generation. Doch dieser Ansatz greift zu kurz.
Mathematische Wettbewerbsaufgaben folgen oft wiederkehrenden Beweistechniken. Ein vermeintlich neues Problem ist meist eine neu kombinierte Anwendung bekannter Muster. KI-Modelle trainieren auf Zehntausenden von Beweisen und meistern diese Kombinationen durch komponierbare Mustererkennung.
Im Schach hingegen gibt es keine wiederkehrenden Muster. Jede Position ist einzigartig. Selbst mit perfektem Wissen über Taktiken bleibt die Bewertung einer konkreten Opfergabe unmöglich – es sei denn, man berechnet die konkreten Zugfolgen. Schachcomputer lösten dieses Problem nicht durch größere neuronale Netze, sondern durch ein System, das die KI um eine gezielte Suchstrategie erweiterte.
Wo das Risiko wirklich liegt
Die meisten kaufmännischen Prozesse ähneln dem Mathematikproblem: Anwendung bekannter Regeln auf neue Fälle. KI bewältigt 85 bis 95 % der Arbeitslast – ein echter Fortschritt. Doch die verbleibenden 5 bis 15 % bergen das größte Risiko. Hier versagen die Muster. Und das Gefährliche: Die KI erkennt ihr Scheitern nicht. Sie liefert trotzdem eine überzeugende, aber falsche Antwort.
Unsere Tests mit Dokumentenauslesung – nicht mit Randfällen, sondern mit echten Rechnungen – zeigen: Selbst die besten Modelle erreichen keine 100 % Genauigkeit bei der einfachsten Aufgabe: Eine Zahl lesen und in das richtige Feld übertragen. Ein unerfahrener Mensch schafft das problemlos.
„Es geht nicht um die harten Urteile oder Ausnahmen. Schon die einfachsten Schritte scheitern. Und das bleibt hängen.“
Warum das für Unternehmen kritisch ist
Unternehmen setzen zunehmend auf KI zur Automatisierung von Prozessen wie Rechnungsprüfung, Compliance-Checks oder Kreditdokumentenanalyse. Die Technologie übernimmt Routineaufgaben zuverlässig – doch genau hier liegt die Gefahr. Die KI gibt sichere Antworten, wo sie eigentlich unsicher sein sollte. Fehler in diesen scheinbar einfachen Schritten können zu finanziellen Verlusten, Compliance-Verstößen oder operativen Störungen führen.
Die Lösung liegt nicht darin, auf „bessere Modelle“ zu warten. Vielmehr müssen Unternehmen ihre KI-Systeme mit menschlicher Kontrolle und klaren Eskalationsmechanismen kombinieren. Nur so lassen sich die Risiken minimieren, die entstehen, wenn KI an den Grenzen ihrer Mustererkennung scheitert.
Fazit: KI braucht mehr als nur Rechenkraft
Die Stärke moderner KI liegt in der Verarbeitung bekannter Muster – nicht in der Bewältigung unbekannter Herausforderungen. Für Unternehmen bedeutet das: Automatisierung ja, aber mit klaren Kontrollmechanismen. Denn während KI Matheprüfungen besteht, scheitert sie an Aufgaben, die ein Mensch mühelos löst. Und das ist die eigentliche Gefahr.