Quand l’IA transforme une erreur de prédiction en arrestation musclée

Le 20 octobre 2025 à Baltimore, Taki Allen, 17 ans, sortait du lycée après un entraînement de football. Un système de surveillance équipé d’intelligence artificielle a identifié à tort le sachet de Doritos dans sa poche comme une arme. En quelques minutes, des voitures de police encerclaient le jeune homme. Les officiers, armes au poing, l’ont contraint à s’agenouiller et menotté avant de le fouiller. Résultat : un simple paquet de chips. Cette erreur d’identification, suivie de décisions humaines hâtives, a transformé une soirée banale en un traumatisme.

Quelques semaines plus tard, le 24 décembre 2025, Angela Lipps, une grand-mère du Tennessee, était libérée après cinq mois de détention. Son crime ? Une erreur de reconnaissance faciale l’avait faussement associée à des fraudes commises dans le Dakota du Nord, un État qu’elle n’avait jamais visité. Arrêtée sous la menace d’une arme alors qu’elle gardait ses quatre petits-enfants, elle a subi l’humiliation d’une incarcération injuste.

Ces deux affaires illustrent un problème récurrent : l’IA, souvent présentée comme objective, génère des probabilités, mais les humains les traitent comme des certitudes.

Des probabilités transformées en décisions opérationnelles

En tant que chercheurs spécialisés dans l’intersection entre technologie, droit et administration publique, nous étudions l’impact des outils policiers basés sur l’IA. Dans de nombreuses villes américaines, ces systèmes analysent des données historiques pour identifier des « points chauds » criminels et orienter les patrouilles. Pourtant, aucun registre public ne recense l’ensemble de ces outils ni leurs utilisations.

Le mécanisme semble simple : un algorithme attribue un score de risque à un quartier, et les forces de l’ordre s’y déploient en conséquence. Mais la conséquence est tout autre. Dès qu’un système signale une menace potentielle, la question n’est plus de savoir à quel point la prédiction est fiable, mais comment réagir. Une donnée statistique devient une décision opérationnelle, et l’incertitude initiale disparaît dans le processus.

L’IA ne fournit pas des faits, mais des probabilités

Prenons l’exemple des modèles génératifs comme ChatGPT. Lorsqu’on leur demande : « Qui a inventé l’ampoule ? », ils ne consultent pas une base de données ni ne vérifient les faits. Ils génèrent une réponse statistiquement probable : « Thomas Edison ». Pourtant, l’histoire est plus nuancée : Joseph Swan a breveté une ampoule à filament au même moment. Le danger réside dans la confusion entre une réponse probable et une vérité vérifiée.

Cette distinction est cruciale en matière de police et de justice. Lorsqu’un algorithme indique qu’un individu est susceptible de commettre un crime, les agents ne traitent pas cette information comme une hypothèse, mais comme une quasi-certitude. Résultat : des arrestations abusives, des vies brisées, et une perte de confiance dans les institutions.

Pourquoi la confiance aveugle dans l’IA pose problème

Les outils policiers basés sur l’IA s’appuient souvent sur des données historiques biaisées. Si une zone a été surpoliciée dans le passé, l’algorithme la considérera comme plus à risque, renforçant ainsi un cercle vicieux. De plus, les biais raciaux et socio-économiques présents dans les données initiales se répercutent directement sur les prédictions.

Les cas de Taki Allen et Angela Lipps ne sont pas isolés. Ils révèlent une tendance inquiétante : la foi excessive dans la technologie, couplée à un manque de transparence, conduit à des erreurs systémiques. Les algorithmes ne sont pas neutres. Ils reproduisent et amplifient les biais humains, tout en donnant une apparence d’objectivité.

Pour éviter de tels drames, il est essentiel de :

  • Encadrer strictement l’utilisation des outils policiers basés sur l’IA, avec des audits indépendants et une évaluation régulière de leurs biais.
  • Former les forces de l’ordre à comprendre les limites des algorithmes et à traiter les prédictions comme ce qu’elles sont : des probabilités, pas des certitudes.
  • Garantir la transparence : les données utilisées, les critères de scoring et les résultats doivent être accessibles au public et aux chercheurs.
  • Impliquer les communautés concernées dans la conception et l’évaluation de ces outils, pour éviter que les biais ne se perpétuent.

« L’IA n’est pas une solution magique. Elle peut aider, mais elle ne doit pas remplacer le jugement humain. La confiance aveugle dans ces outils risque de transformer des probabilités en injustices. »

— Deux chercheurs spécialisés dans la technologie et le droit

Vers une régulation plus stricte des outils policiers

Face à l’essor des technologies de surveillance et d’analyse prédictive, plusieurs villes et États américains commencent à légiférer. En 2024, Portland a interdit l’utilisation de la reconnaissance faciale par la police. D’autres États envisagent des lois pour limiter l’usage des algorithmes dans les décisions judiciaires.

Ces initiatives sont nécessaires, mais insuffisantes. Sans une régulation nationale et une volonté politique forte, les erreurs continueront de se produire. Les citoyens doivent exiger des comptes à leurs gouvernements et à leurs forces de l’ordre. Car derrière chaque algorithme se cache une décision humaine – et chaque décision humaine peut avoir des conséquences irréversibles.