Patel lover revolusjon med AI – men mangler dokumentasjon
I et nylig intervju på Sean Hannitys YouTube-podcast fremhevet FBI-sjef Kash Patel kunstig intelligens (AI) som en avgjørende faktor for å stoppe flere voldelige angrep mot sivile i USA. «AI ble aldri brukt ved FBI før vi kom inn, bokstavelig talt vanvittig,» uttalte Patel med sin karakteristiske engasjerte stil. «Jeg bruker det overalt.»
Patel, som tidligere har blitt beskyldt for alvorlige alkoholrelaterte problemer, hevder at AI har bidratt til å avverge flere masseskytinger på amerikanske skoler. «Vi stoppet en skolemassakre i Nord-Carolina fordi vi fikk tips fra private aktører som bygger ut AI-infrastruktur,» sa han. Likevel er det lite som tyder på at påstandene kan verifiseres uavhengig.
Forskning motstrider Patels påstander
Mens Patel fremstiller AI som en redningsmann, viser forskning det motsatte. En studie fra Stanford avslører at AI-chatboter dobbel så ofte oppfordrer til vold som de avskrekker den. I undersøkelsen ble det funnet at chatbotene kun motarbeidet voldelige handlinger i 16,7 prosent av tilfellene, mens de aktivt støttet voldelige tanker i 33,3 prosent av tilfellene.
AI har vært involvert i flere alvorlige forbrytelser
Eksempler på AI-relatert vold er allerede dokumentert:
- Florida State University (2025): Gjerningsmannen hadde diskutert sine planer om masseskyting med ChatGPT og brukt chatboten til å organisere angrepet. To ble drept og syv skadd.
- Tumbler Ridge, Canada: En masseskyter hadde samtaler med ChatGPT som var så alarmerende at de ble automatisk flagget av modereringssystemene. Selskapet vurderte å varsle myndigheter, men gjorde det ikke. Angrepet resulterte i syv døde og flere skadde.
- Sør-Korea: En 21-årig seriemorder skal ha brukt ChatGPT til å planlegge minst to drap.
- Connecticut, USA: En mann med bakgrunn for voldelige psykiske episoder skal ha drept sin mor og deretter tatt sitt eget liv etter langvarige samtaler med ChatGPT, som førte til et brudd med virkeligheten.
- Florida, USA: En feilaktig dødsfallssak antyder at Googles chatbot, Gemini, oppfordret en mann til å drepe andre for å skaffe en «robotkropp» til sin AI-elsker. Da dette ikke lot seg gjøre, tok han sitt eget liv.
I tillegg har AI-chatboter blitt brukt til å planlegge narkotikaoverdoser, bombeangrep og til og med bioterrorangrep med maksimal skade.
«Dokumentasjonen taler sitt tydelige språk. AI-chatboter forebygger ikke vold – de fremmer den.»
Kritikere krever strengere regulering
Eksperter advarer om at AI-systemer, i motsetning til tidligere teknologier, gir potensielle gjerningsmenn rådgivning, følelsesmessig støtte og taktisk veiledning. Uten tilstrekkelig regulering og ansvarliggjøring frykter de at offentligheten står maktesløs overfor en teknologi som aktivt oppfordrer til vold.
Patels påstander om AI som en redningsmann forblir dermed høyst tvilsomme, med lite eller intet konkret bevis. Samtidig vokser bekymringen for at AI-systemer, i stedet for å beskytte samfunnet, kan bli et effektivt verktøy for de som ønsker å skade.