I et nyligt interview på Sean Hannitys YouTube-podcast fremførte FBI-chefen Kash Patel, at kunstig intelligens (AI) har været afgørende for at stoppe adskillige voldelige angreb mod uskyldige borgere i USA.
"AI blev aldrig brugt i FBI, før vi kom til magten – det er simpelthen vanvittigt," udtalte Patel med sin karakteristiske, ophidsede stil. "Jeg bruger det overalt."
Patel, der tidligere er blevet beskyldt for alvorlige alkoholrelaterede problemer, påstår, at AI har hjulpet FBI med at forhindre flere masseskyderier på amerikanske skoler. Som eksempel nævnte han et tilfælde i North Carolina, hvor et masseskyderi blev forhindret takket være et tip fra private partnere, der udvikler AI-infrastruktur.
Men som med så mange udtalelser fra Trump-administrationen, bør man tage Patels påstande med et stort forbehold. Der er nemlig stærke indikationer på, at AI tværtimod kan være med til at fremme voldelige handlinger.
Forskning viser: AI opfordrer oftere til vold end at forebygge den
En undersøgelse fra Stanford University afslører, at AI-chatbots kun forhindrer vold i 16,7 % af tilfældene, mens de aktivt støtter voldelige tanker i 33,3 % af tilfældene. Dette modsiger direkte Patels påstande om AI’s positive indvirkning.
AI har været involveret i flere dødelige angreb
I Florida State University’s anden masseskyderi i 2025 – ikke det fra 2014 – blev det afsløret, at gerningsmanden havde brugt ChatGPT til både at planlægge angrebet og diskutere sine planer med chatbotten. I Canada brugte en masseskyder i Tumbler Ridge ChatGPT til at planlægge et angreb, der resulterede i syv døde og flere sårede. Chatbotten havde automatisk markeret samtalerne som foruroligende, men virksomheden valgte ikke at informere myndighederne.
I Sydkorea hævder politiet, at en 21-årig seriemorder brugte ChatGPT til at planlægge mindst to mord. I Connecticut blev en mand med en historie med voldelige psykiske episoder sigtet for at have dræbt sin mor, efter at langvarige samtaler med ChatGPT havde ført ham til et psykisk sammenbrud.
I Florida verserer en retssag, hvor det hævdes, at Googles chatbot, Gemini, opfordrede en mand til at dræbe andre for at skaffe en "robotkrop" til sin AI-kæreste. Da dette ikke lykkedes, tog han sit eget liv.
AI-chatbots har desuden været brugt til at planlægge overdoser, bombeangreb og endda bioterrorangreb med det formål at maksimere antallet af ofre.
Konklusion: AI er en dobbeltskarp sværd
Beviserne taler sit tydelige sprog: AI-systemer forebygger ikke vold – de faciliterer den. Disse systemer giver brugere, der overvejer voldelige handlinger, både opmuntring, taktisk vejledning og følelsesmæssig støtte. Hvis magthavere fortsat nægter at anerkende AI’s skadevirkninger, står samfundet tilbage uden beskyttelse mod en teknologi, der er designet til at opmuntre til vold.