20 октября 2025 года в Балтиморе 17-летний Такки Аллен сидел у школы после футбольной тренировки, когда система видеонаблюдения с элементами искусственного интеллекта ошибочно распознала пакет чипсов в его кармане как оружие. В считанные минуты на место прибыли полицейские, выхватили оружие и заставили Аллена встать на колени, после чего обыскали. Единственное, что нашли, — скомканный пакет чипсов. Ошибка ИИ и последующие действия сотрудников полиции превратили обычный вечер в травмирующую конфронтацию.

24 декабря 2025 года 62-летняя Анджела Липпс из Теннесси была освобождена после пяти месяцев тюремного заключения. Причина — ошибка системы распознавания лиц, которая ошибочно связала её с мошенничеством в Северной Дакоте, штате, в котором она никогда не была. Полицейские арестовали её с оружием в руках прямо во время присмотра за внуками.

Эти случаи — лишь часть проблем, связанных с использованием ИИ в правоохранительных органах. Технологии несовершенны, а люди склонны доверять их выводам без критического анализа. Исследователи, изучающие взаимодействие технологий, права и государственного управления, отмечают: системы ИИ выдают вероятностные прогнозы, но полиция и судьи воспринимают их как абсолютные истины.

Как ИИ полиции превращает вероятности в реальные решения

В десятках городов США полиция использует ИИ-инструменты, хотя их полный масштаб остаётся неизвестным из-за отсутствия публичного реестра. Такие системы анализируют исторические данные о преступности и оценивают районы по уровню предполагаемого риска. Полицейские получают задания патрулировать «горячие точки», где, по мнению алгоритма, вероятность преступлений выше.

Однако проблема кроется в переходе от вероятности к действию. Когда система сигнализирует о потенциальной угрозе, сотрудники полиции не задумываются о степени уверенности алгоритма. Вопрос сводится к следующему: «Что делать?», а не «Насколько точен прогноз?». Статистический вывод превращается в оперативное решение, а неопределённость, лежащая в основе прогноза, остаётся за кадром.

Почему ИИ не может заменить факты

Генеративные модели, такие как ChatGPT или Claude, не извлекают информацию из баз данных — они генерируют наиболее вероятный ответ на основе шаблонов в обучающих данных. Например, на вопрос «Кто изобрёл лампочку?» модель может ответить «Томас Эдисон», не упоминая Джозефа Свона, который изобрёл её параллельно. Ответ может быть верным, но он не отражает всей картины.

Опасность заключается в том, что люди воспринимают такие ответы как факты, а не как вероятностные предположения. В правоохранительной системе это чревато серьёзными последствиями. Например, если полиция использует ИИ для прогнозирования преступности на основе географических данных, алгоритм может выделить определённые районы как «опасные» из-за исторических предрассудков в данных. В результате полицейские чаще патрулируют такие зоны, что приводит к увеличению числа арестов и усилению контроля за жителями, что, в свою очередь, может усугубить социальное неравенство.

Примеры ошибок ИИ в правоохранительной практике

  • Такки Аллен (Балтимор): ИИ-камера ошибочно идентифицировала пакет чипсов как оружие, что привело к вооружённому задержанию подростка.
  • Анджела Липпс (Теннесси): Ошибка системы распознавания лиц связала её с мошенничеством в другом штате, несмотря на то, что она там никогда не была.
  • Другие случаи: В разных штатах ИИ-системы ошибочно идентифицировали людей как преступников из-за сбоев в данных или алгоритмах, что приводило к ложным арестам и судебным преследованиям.

Почему доверие к ИИ без проверки данных опасно

Проблема усугубляется тем, что полицейские и судьи часто воспринимают выводы ИИ как объективные и беспристрастные. Однако алгоритмы не свободны от предвзятости. Если обучающие данные содержат дискриминационные паттерны — например, частые аресты в определённых районах из-за расовой предвзятости полиции, — ИИ будет воспроизводить и усиливать эти предрассудки.

Кроме того, ИИ-системы не способны учитывать контекст. Например, алгоритм может посчитать подозрительным поведение человека, который просто ждёт автобус, но его поза или жесты совпадают с шаблонами, которые алгоритм ассоциирует с преступной деятельностью.

Эксперты призывают к более строгому контролю за использованием ИИ в правоохранительной деятельности. Необходимы прозрачные механизмы проверки данных, на которых обучаются алгоритмы, а также независимые аудиты для выявления и исправления предвзятости. Только так можно снизить риск ложных арестов и несправедливых обвинений.

Источник: Fast Company