Fejlagtige anholdelser og urigtige domme: Når AI svigter politiet

Den 20. oktober 2025 sad 17-årige Taki Allen uden for sin gymnasieskole i Baltimore efter en fodboldtræning. En AI-baseret overvågningskamera fejlagtigt identificerede chipsposen i hans lomme som et våben. På få minutter ankom politibiler, og betjente trukkede våben, tvang ham ned på knæ og lagde håndjern på ham, mens de gennemsøgte ham. Det eneste, de fandt, var en krøllet chipspose.

Den 24. december 2025 blev 62-årige Angela Lipps løsladt efter fem måneder i fængsel. Ansigtsgenkendelsessoftware havde fejlagtigt forbundet hende med bedragerier i North Dakota – en stat, hun aldrig havde besøgt. Politiet havde anholdt hende med våbenmagt, mens hun passede sine fire børnebørn.

Disse sager er blot to eksempler på, hvordan AI i politiarbejdet kan føre til alvorlige fejl, der får store menneskelige konsekvenser. Fejlene skyldes både tekniske svagheder og en overdreven tillid til teknologiens påståede objektivitet.

Når sandsynlighed bliver til sikkerhed

Vi er forskere, der undersøger sammenhængen mellem teknologi, lov og offentlig administration. Gennem vores arbejde med at kortlægge, hvordan politiet anvender AI, har vi set, hvor hurtigt en statistisk sandsynlighed bliver til en operationel beslutning. AI-værktøjer bruges i snesevis af amerikanske byer, men der findes ingen offentlig oversigt over, hvor udbredt brugen er.

AI-systemerne analyserer historiske kriminalitetsdata og vurderer områder ud fra forudsagte risici. Betjente dirigeres derefter til disse 'hotspots'. Mekanismen er enkel, men konsekvenserne er det ikke. Når et system signalerer en potentiel trussel, bliver spørgsmålet ikke længere, hvor sikker forudsigelsen er, men hvordan man skal handle på den. En statistisk sandsynlighed bliver til en beslutning om indsats, og usikkerheden bag den forsvinder undervejs.

AI’s farlige illusion om objektivitet

Når generative AI-modeller som ChatGPT eller Claude svarer på spørgsmål, søger de ikke i en database for at finde fakta. De genererer det mest sandsynlige svar baseret på mønstre i de data, de er blevet trænet på. Spørger man fx, 'Hvem opfandt glødepæren?', vil modellen sandsynligvis svare 'Thomas Edison'. Svaret kan være korrekt, men det fanger ikke hele historien – som fx Joseph Swans parallelle opfindelse på samme tid.

Faren opstår, når mennesker tror, at modellen henter sandheden frem, frem for at generere en sandsynlighed. Denne forskel er afgørende. Den mest sandsynlige respons er ikke det samme som et faktuelt verificeret svar med kontekst.

AI-systemer producerer sandsynligheder, men mennesker behandler dem som sikkerheder. Når disse sandsynligheder bliver til politiaktioner, kan det få alvorlige konsekvenser for uskyldige mennesker.

Fejl i systemet får menneskelige ofre

Eksemplet med Taki Allen viser, hvordan en teknisk fejl i et AI-system kan eskalere til en traumatisk oplevelse. Politiet handlede ud fra en fejlagtig antagelse, der blev præsenteret som en sikkerhed. Tilsvarende førte ansigtsgenkendelsens fejl til en urigtig anholdelse af Angela Lipps, som kostede hende fem måneder af sit liv.

Disse tilfælde illustrerer et større problem: Når AI integreres i politiarbejdet, bliver teknologiens begrænsninger og fejlbarlighed til menneskelige tragedier. Det er ikke nok at stole på, at AI er objektivt og præcist. Teknologien er kun så god som de data, den er trænet på, og de mennesker, der anvender den.

Hvad kan gøres?

For at minimere risikoen for fejl og overgreb kræver det:

  • Transparens: Offentlig adgang til information om, hvor og hvordan AI anvendes i politiet.
  • Uafhængig evaluering: Regelmæssig gennemgang af AI-systemer for at identificere og rette fejl.
  • Menneskekontrol: AI-beslutninger bør altid underkastes menneskelig vurdering og ansvarlighed.
  • Uddannelse: Politikere og betjente skal forstå AI’s begrænsninger og risici.

AI har potentiale til at effektivisere politiarbejdet, men det må ikke ske på bekostning af borgeres rettigheder og sikkerhed. Når sandsynlighed bliver til sikkerhed, bliver menneskelige fejl til systemiske problemer.