Van zak chips tot vijf maanden cel: hoe AI de politie misleidt
Baltimore, 20 oktober 2025. Taki Allen, een 17-jarige scholier, zat na de training buiten zijn school toen een AI-bewakingscamera een zak Doritos in zijn zak aanzag voor een pistool. Binnen enkele minuten arriveerden politieauto’s, agenten trokken hun wapens en dwongen hem op zijn knieën. Handboeien klikten om zijn polsen terwijl ze hem fouilleerden. Wat ze vonden? Een verkreukelde zak chips. De fout van de AI en de daaropvolgende menselijke beslissingen maakten van een gewone avond een traumatische confrontatie.
Op 24 december 2025 werd Angela Lipps, een oma uit Tennessee, na vijf maanden cel vrijgelaten. Een gezichtsherkenningssysteem had haar ten onrechte gekoppeld aan fraudezaken in North Dakota – een staat die ze nooit had bezocht. Agenten hadden haar onder schot gearresteerd terwijl ze op haar kleinkinderen paste. Dit zijn geen geïsoleerde incidenten, maar symptomen van een groter probleem: hoe AI-systemen mensen kunnen schaden door technische fouten én onterechte vertrouwen in de zogenaamde objectiviteit van algoritmes.
Van kans naar zekerheid: hoe AI de politie beïnvloedt
Als onderzoekers die zich bezighouden met de relatie tussen technologie, recht en bestuur, hebben we gezien hoe snel de stap van een waarschijnlijkheid naar een zekerheid wordt gemaakt in de praktijk. AI-tools voor politieondersteuning worden in tientallen Amerikaanse steden gebruikt, hoewel er geen openbaar register bestaat dat de volledige omvang in kaart brengt.
Deze systemen analyseren historische misdaaddata en scoren wijken op voorspeld risico. Agenten worden vervolgens naar deze zogenaamde hotspots gestuurd. Het mechanisme lijkt eenvoudig, maar de gevolgen zijn dat niet. Zodra een systeem een mogelijke dreiging signaleert, is de vraag niet meer hoe zeker de voorspelling is, maar wat ermee moet gebeuren. Een statistische uitkomst wordt een operationele beslissing – en de onzekerheid die eraan ten grondslag ligt, verdwijnt onderweg.
AI als voorspellingsmachine, niet als waarheidsvinder
Generatieve AI-modellen zoals ChatGPT of Claude geven geen antwoorden door feiten uit een database te halen. Ze voorspellen de meest waarschijnlijke reactie op basis van patronen in de trainingsdata. Stel de vraag: ‘Wie heeft de gloeilamp uitgevonden?’ Het model zal hoogstwaarschijnlijk ‘Thomas Edison’ antwoorden. Dat kan correct zijn, maar het mist belangrijke context, zoals de parallelle uitvinding door Joseph Swan.
Het gevaar schuilt in het geloof dat het model de waarheid reproduceert in plaats van een waarschijnlijk antwoord genereert. Deze nuance is cruciaal, vooral in de rechtshandhaving. Wanneer politieafdelingen AI-systemen gebruiken die zijn getraind op geografische data om criminele activiteit te voorspellen, wordt een statistische kans al snel behandeld als een onweerlegbaar feit.
Waarom algoritmes falen – en waarom we ze toch vertrouwen
AI-systemen zijn niet objectief. Ze weerspiegelen de biases in de data waarop ze zijn getraind. Als historische misdaaddata bijvoorbeeld bepaalde wijken of bevolkingsgroepen disproportioneel benadrukken, zal het algoritme dat patroon versterken. Daarnaast is er het probleem van oververtrouwen: mensen – inclusief agenten en rechters – hebben de neiging om technologische uitkomsten als feilloos te beschouwen, zelfs als die gebaseerd zijn op onvolledige of verkeerde informatie.
Dit oververtrouwen leidt tot situaties waarin een AI-aanduiding van een ‘risicogebied’ of ‘verdachte persoon’ al voldoende is om ingrijpende acties te ondernemen. De onzekerheid die inherent is aan probabilistische systemen wordt genegeerd, met ernstige gevolgen voor onschuldige burgers.
Wat kan er worden gedaan?
Om de risico’s van AI in de politie te beperken, zijn er verschillende stappen nodig:
- Transparantie: Overheden moeten openbaar maken welke AI-tools worden gebruikt, hoe ze werken en welke data erin verwerkt is. Een openbaar register van politie-AI is essentieel.
- Onafhankelijke audits: AI-systemen moeten regelmatig worden gecontroleerd door externe partijen om biases en fouten op te sporen.
- Menselijke controle: AI mag nooit volledig autonoom beslissingen nemen. Een menselijke beoordeling moet altijd de finale stap zijn.
- Juridische kaders: Er moeten duidelijke regels komen over het gebruik van AI in opsporing en rechtspraak, inclusief aansprakelijkheid bij fouten.
- Bewustwording: Agenten, rechters en burgers moeten worden getraind in het begrijpen van de beperkingen van AI-systemen.
‘AI is geen toverstaf die objectiviteit garandeert. Het is een hulpmiddel – en zoals elk hulpmiddel moet het met de nodige voorzichtigheid en kritiek worden gebruikt.’
Conclusie: technologie met menselijke maat
De gevallen van Taki Allen en Angela Lipps tonen aan dat AI in de politie niet alleen een technisch probleem is, maar een maatschappelijk vraagstuk. Het gaat niet om de vraag of we AI moeten gebruiken, maar hoe we dat op een verantwoorde manier doen. Zonder strikte regels, transparantie en menselijke controle kan AI leiden tot onterechte arrestaties, trauma’s en een afbrokkelend vertrouwen in de rechtsstaat.
De bal ligt nu bij overheden, techbedrijven en burgers: we moeten ervoor zorgen dat technologie dient als bescherming, niet als bedreiging.