Une arrestation de 12 heures fondée sur une erreur d'IA
Jason Killinger, un habitant du Nevada, a porté plainte contre la ville de Reno après avoir été arrêté pendant 12 heures sur la base d'une erreur commise par un système de reconnaissance faciale. Selon les documents judiciaires, un agent de police, Richard Jager, l'a placé en détention en suivant les indications d'une caméra intelligente.
Les détails de l'erreur judiciaire
Alors qu'il pariait dans un casino local, Killinger a été identifié à tort comme une personne interdite de jeu. Le système l'a classé comme un « match à 100 % » avec un individu banni des salles de jeu. Après son arrestation par l'agent Jager, Killinger a été accusé d'utiliser une fausse pièce d'identité pour tromper la sécurité du casino.
L'avocat de Killinger affirme que l'agent a commis plusieurs erreurs, notamment en refusant de vérifier d'autres pièces d'identité que Killinger avait sur lui au moment de son arrestation.
Une plainte élargie contre la ville de Reno
La nouvelle plainte, déposée après qu'un juge fédéral ait autorisé l'inclusion de la ville de Reno comme défendeur, va plus loin. Elle reproche à la municipalité de ne pas avoir formé correctement ses policiers à l'utilisation légale des outils de reconnaissance faciale. Selon les avocats de Killinger, cette négligence aurait conduit à « des milliers d'arrestations illégales » utilisant cette technologie.
« L'erreur de l'agent Jager n'est pas un incident isolé, mais le résultat d'une pratique généralisée impliquant des centaines d'employés municipaux et des milliers d'arrestations similaires sur plusieurs années. »
Un précédent juridique majeur en jeu
Si Killinger l'emporte, cette affaire pourrait établir un précédent important dans les cas d'arrestations injustifiées à l'ère où l'IA, et non l'humain, prend de plus en plus de décisions policières. Les dommages et intérêts demandés incluent des compensations pour les préjudices subis pendant la détention, ainsi que des frais d'avocat.
Un problème récurrent avec l'IA policière
Cette situation n'est pas un cas isolé. En 2023, une grand-mère innocente a été emprisonnée pendant plus de six mois après qu'un système d'IA générative utilisé par la police de Fargo l'ait faussement identifiée comme responsable d'une fraude à un distributeur automatique. Les relevés bancaires ont prouvé qu'elle se trouvait à plus de 1 200 miles du lieu du crime au moment des faits.
La reconnaissance faciale sous le feu des critiques
Les erreurs de reconnaissance faciale soulèvent des questions sur la fiabilité de ces technologies dans le domaine judiciaire. Les avocats de Killinger espèrent que cette affaire incitera les autorités à mieux encadrer l'utilisation de l'IA dans les forces de l'ordre.