Den 20. oktober 2025 satt 17 år gamle Taki Allen utenfor videregående skole i Baltimore etter fotballtrening da et AI-basert overvåkningskamera feilaktig identifiserte en Doritos-pose i lommen hans som et våpen. På få minutter var politibiler på stedet, offiserer trakk våpen og tvang ham ned på kne med håndjern mens de gjennomsøkte ham. Det eneste de fant, var en krøllet chipspose. AI-systemets feil og de menneskelige avgjørelsene som fulgte, forvandlet en vanlig kveld til en traumatisk konfrontasjon.

Den 24. desember 2025 ble Angela Lipps, en bestemor fra Tennessee, løslatt etter fem måneder i fengsel. Ansiktsgjenkjenning hadde feilaktig knyttet henne til svindel i Nord-Dakota, en delstat hun aldri hadde vært i. Politiet arresterte henne med våpenmakt mens hun passet på fire barnebarn. Disse eksemplene illustrerer hvordan AI-systemer kan føre til alvorlige feilgrep på grunn av tekniske svakheter og overdreven tillit til teknologiens påståtte objektivitet.

Fra sannsynlighet til sikkerhet – et farlig skifte

Begge sakene involverer ulike verktøy, men problemet er det samme: AI-systemer produserer sannsynligheter, men mennesker behandler dem som absolutte sannheter. Vi er forskere som studerer teknologi, jus og offentlig forvaltning. Gjennom forskning på hvordan politiet bruker AI og hvordan digitale verktøy fungerer i et demokratisk samfunn, har vi sett hvor raskt skiftet fra usikker prediksjon til operasjonell sikkerhet skjer i praksis.

AI-baserte politiverktøy brukes i dusinvis av amerikanske byer, selv om det ikke finnes noen offentlig oversikt over omfanget. Systemene analyserer historiske kriminalitetsdata og rangerer områder etter forventet risiko, slik at politiet kan prioritere innsatsen. Mekanismen er enkel, men konsekvensene er ikke det. Når et system varsler om en mulig trussel, blir spørsmålet ikke lenger hvor sikker prediksjonen er, men hvordan man skal reagere. En statistisk utgang blir til en beslutning om innsats, og usikkerheten som lå til grunn, forsvinner underveis.

AI genererer sannsynligheter – ikke fakta

Når generative AI-modeller som ChatGPT eller Claude svarer på spørsmål, søker de ikke i en database etter fakta. De genererer det mest sannsynlige svaret basert på mønstre i treningsdataene. For eksempel, når man spør «Hvem oppfant lyspæren?», vil modellen svare «Thomas Edison» – ikke fordi det er en fullstendig sannhet, men fordi det er det mest sannsynlige svaret. I virkeligheten utviklet også Joseph Swan en lyspære samtidig som Edison. Faren oppstår når folk tror at modellen henter ut sannhet, i stedet for å generere sannsynligheter.

Denne skillelinjen er avgjørende, spesielt innen politiarbeid og rettssystemet. Når politiet bruker AI-systemer trent på geografiske data for å forutsi hvor kriminalitet vil oppstå, blir de statistiske prediksjonene ofte behandlet som absolutte sannheter. Dette kan føre til feilaktige arrestasjoner, unødvendig bruk av makt og rettssaker basert på feilaktige forutsetninger.

Eksempler på AI-feil i politiarbeid

  • Feilaktig våpenidentifikasjon: AI-kameraer i Baltimore feilaktig identifiserte en chipspose som et våpen, noe som førte til at en uskyldig tenåring ble arrestert med våpenmakt.
  • Feilaktig ansiktsgjenkjenning: En kvinne i Tennessee ble feilaktig knyttet til svindel i Nord-Dakota gjennom ansiktsgjenkjenning, noe som resulterte i fem måneder i fengsel.
  • Risikovurderinger basert på historiske data: AI-systemer som analyserer tidligere kriminalitet kan forsterke eksisterende skjevheter, for eksempel ved å overvåke fattige eller minoritetsområder hardere enn andre.

Hvorfor tilliten til AI er problematisk

Menneskers tendens til å stole blindt på teknologi, spesielt når den presenteres som «objektiv», gjør problemet større. AI-systemer er ikke nøytrale – de er trent på data som kan inneholde skjevheter, og de kan forsterke disse skjevhetene når de brukes til å ta avgjørelser. Når politiet stoler på AI-systemenes «objektive» vurderinger, risikerer de å overse de menneskelige konsekvensene av feilaktige avgjørelser.

Dette understreker behovet for strengere regulering, transparens og menneskelig kontroll over AI-systemer som brukes i rettsvesenet og politiarbeid. Teknologi kan være et kraftig verktøy, men det må aldri erstatte kritisk tenkning og ansvarlighet.