Un error en un sistema de vigilancia con inteligencia artificial ha convertido la vida de Kyle Dausman, un residente de Cherry Hills Village (Colorado), en una pesadilla burocrática. Desde hace meses, cada vez que sale de su casa, la policía lo detiene sin motivo aparente, alertada por cámaras de reconocimiento de matrículas que lo señalan como sospechoso.
Dausman, entrevistado por 9News, denunció que su camioneta está marcada en el sistema Flock Safety, una empresa que opera miles de cámaras de vigilancia con IA en Estados Unidos. «Me paran constantemente. No puedo usar mi camioneta con normalidad. Siento que mi seguridad está en riesgo», declaró. «De la nada, aparecen con las luces encendidas y me obligan a detenerme».
Las autoridades de Cherry Hills Village confirmaron que Dausman no ha cometido ningún delito, pero el error persiste. Su matrícula fue erróneamente asociada a una orden de detención en la base de datos del Centro de Información Criminal de Colorado. Aunque la policía local lo retiró de su lista de alertas tras unas pocas detenciones, las cámaras de Flock en la zona siguen generando falsos positivos cada vez que circula.
«Cada vez que paso por una cámara en el estado, los agentes reciben una alerta en su coche indicando que estoy en la zona», explicó Dausman. Según 9News, el origen del error se remonta a un fallo en la introducción de datos en una orden de detención emitida en el condado de Gilpin (Colorado).
Al intentar resolver el problema, Dausman chocó con un muro burocrático. Los funcionarios le exigieron proporcionar el nombre del sospechoso vinculado a la orden errónea, información que ninguna agencia policial está dispuesta a compartir por tratarse de un caso aún activo. «Una vez que estás en el sistema de Flock, eres tú quien debe sacarte de él. Tienes que asumir toda la responsabilidad», declaró.
La situación deja a Dausman en una posición vulnerable. No sabe qué tipo de orden falsa pesa sobre él ni cómo reaccionarán algunos agentes al detenerlo. «Solo sé que estoy en el sistema ahora, y no hay forma fácil de salir una vez que entras», lamentó.
Este caso refleja los riesgos de los sistemas automatizados de vigilancia, que pueden perpetuar errores sin un mecanismo claro de apelación para los afectados.