Wenn KI zu falschen Verhaftungen führt
In Baltimore wurde am 20. Oktober 2025 der 17-jährige Schüler Taki Allen nach dem Footballtraining vor seiner Schule festgenommen. Ein KI-gestütztes Überwachungssystem hatte die Chipstüte in seiner Tasche fälschlich als Waffe identifiziert. Innerhalb von Minuten trafen Polizeifahrzeuge ein, Beamte zogen ihre Waffen und zwangen Allen auf die Knie. Die Durchsuchung ergab: Es war nur eine zerknüllte Chipstüte. Die Fehlentscheidung der KI und die anschließende Handlung der Polizisten verwandelten einen harmlosen Abend in eine traumatische Konfrontation.
Ein weiteres Beispiel: Angela Lipps, eine Großmutter aus Tennessee, wurde am 24. Dezember 2025 nach fünfmonatiger Haft entlassen. Gesichtserkennungssoftware hatte sie fälschlich mit Betrugsdelikten in North Dakota in Verbindung gebracht – einem Bundesstaat, den sie nie besucht hatte. Die Polizei hatte sie mit vorgehaltenen Waffen festgenommen, während sie ihre vier Enkel betreute.
Warum KI-Systeme versagen
Diese Fälle zeigen ein gemeinsames Problem: KI-Systeme liefern Wahrscheinlichkeiten, doch Menschen behandeln sie als absolute Gewissheit. Als Forscher, die sich mit der Schnittstelle von Technologie, Recht und öffentlicher Verwaltung beschäftigen, haben wir beobachtet, wie schnell aus statistischen Vorhersagen handfeste Entscheidungen werden. In Dutzenden US-Städten kommen KI-gestützte Polizeitools zum Einsatz – obwohl es keine öffentliche Übersicht über deren Verbreitung gibt.
Diese Systeme analysieren historische Kriminalitätsdaten und bewerten Stadtteile nach vorhergesagtem Risiko. Beamte werden dann in diese „Hotspots“ geschickt. Doch der Mechanismus ist problematisch: Sobald ein System eine mögliche Bedrohung anzeigt, wird nicht mehr gefragt, wie sicher die Vorhersage ist, sondern wie darauf reagiert werden soll. Aus einer statistischen Einschätzung wird eine Einsatzentscheidung – und die Unsicherheit, die dahintersteht, geht dabei verloren.
KI generiert Wahrscheinlichkeiten, keine Fakten
Moderne KI-Systeme wie ChatGPT oder Claude funktionieren nicht nach dem Prinzip einer Datenbankabfrage. Sie erzeugen die wahrscheinlichste Antwort basierend auf Mustern in ihren Trainingsdaten. Wird etwa gefragt: „Wer erfand die Glühbirne?“, antwortet das System mit „Thomas Edison“ – obwohl Joseph Swan die Erfindung fast zeitgleich machte. Die Antwort ist statistisch plausibel, aber nicht zwingend wahr.
Genau hier liegt die Gefahr: Menschen neigen dazu, die Antwort einer KI als Tatsache zu betrachten, obwohl es sich nur um eine Wahrscheinlichkeit handelt. In der Polizeiarbeit kann das fatale Folgen haben. KI-Systeme, die auf geografischen Daten trainiert sind, um kriminelle Aktivitäten vorherzusagen, liefern keine Gewissheit – nur Wahrscheinlichkeiten. Dennoch werden diese Vorhersagen oft als handfeste Beweise behandelt.
Beispiel: Falsche Identifizierung durch Gesichtserkennung
Angela Lipps’ Fall zeigt, wie schnell KI-Systeme zu Fehlentscheidungen führen können. Gesichtserkennungssoftware verband ihr Bild mit einer Person, die in North Dakota wegen Betrugs gesucht wurde. Obwohl Lipps nie in diesem Bundesstaat war, führte die falsche Übereinstimmung zu ihrer Verhaftung. Die Konsequenz: fünf Monate unschuldige Haft.
Die Rolle des menschlichen Vertrauens
Der Kern des Problems ist nicht die Technologie selbst, sondern das blinde Vertrauen, das ihr entgegengebracht wird. KI-Systeme sind nicht unfehlbar – sie reproduzieren und verstärken oft bestehende Vorurteile in den Daten, auf denen sie trainiert wurden. Wenn Polizisten oder Richter diese Systeme als objektiv betrachten, obwohl sie nur Wahrscheinlichkeiten liefern, wird die Fehleranfälligkeit zum strukturellen Problem.
Die Fälle von Taki Allen und Angela Lipps sind keine Einzelfälle. Sie zeigen, wie schnell KI-gestützte Polizeiarbeit zu ungerechtfertigten Verhaftungen, Trauma und unnötiger Gewalt führen kann. Die Lösung liegt nicht darin, KI komplett abzulehnen, sondern ihre Grenzen zu verstehen und menschliche Urteilsfähigkeit nicht durch algorithmische Vorhersagen ersetzen zu lassen.
„KI-Systeme liefern Wahrscheinlichkeiten, doch Menschen behandeln sie als Gewissheiten. Das ist der gefährliche Irrtum in der modernen Polizeiarbeit.“