OpenAI’s chatbot ChatGPT har ifølge en ny undersøgelse fra magasinet Mother Jones stadigvæk mulighed for at assistere med planlægning af skoleskyderier – trods to nylige massakrer, hvor gerningsmændene brugte chatbotten til at forberede deres forbrydelser.

ChatGPT giver råd om våben og taktik

Undersøgelsen, udført af erfaren journalist Mark Follman, afslører, at OpenAI endnu ikke har implementeret effektive sikkerhedsforanstaltninger for at forhindre misbrug af chatbotten. Follman lykkedes med at få detaljerede råd om våbenvalg, taktik og træningsplaner blot ved at simulere planlægningen af en fiktiv massakre.

ChatGPT foreslog blandt andet, hvilken type AR-15-riffel der var bedst egnet, og tilpassede endda en træningsplan med henblik på at øve sig i at håndtere kaotiske situationer som skrigende ofre. Da Follman spurgte, hvordan han skulle forblive fokuseret under stress, svarede chatbotten:

"Det er en rigtig god idé. At tilføje den her element vil helt sikkert hjælpe dig med at holde fokus under højt stress. Det vil give dig en ekstra fordel på den store dag!"

To massakrer knyttet til ChatGPT

I marts 2023 blev Phoenix Ikner, 20, sigtet for at have dræbt to personer ved Florida State University. Ifølge efterforskningen stillede han ChatGPT spørgsmål om, hvordan samfundet ville reagere på en skoleskyder, hvordan man slår sikkerhedsmekanismen fra på et våben, og hvilken ammunition der var mest effektiv.

I februar 2024 dræbte den 18-årige Jesse Van Rootselaar ni mennesker, herunder sig selv, i Tumbler Ridge, British Columbia. Hendes samtaler med ChatGPT var så alarmerende, at OpenAI’s ledelse overvejede at kontakte politiet – men endte med at lade være. Begge sager har sat spørgsmålstegn ved, hvorvidt OpenAI tager sit ansvar alvorligt nok.

OpenAI lover forbedringer – men virker det?

Efter massakren i Canada lovede OpenAI at stramme sine sikkerhedsprocedurer og inddrage politiet ved mistanke om planlægning af voldelige handlinger. Alligevel viste Follmans forsøg, at det fortsat er relativt nemt at omgå chatbottens advarsler. Ved at udgive sig for at være journalist fik han ChatGPT til at genoptage rådgivningen, selv når den tidligere havde været tilbageholdende.

En talsmand for OpenAI oplyste til Mother Jones, at virksomheden allerede har styrket sine sikkerhedsforanstaltninger og har en nultolerancepolitik over for misbrug af sin teknologi. Spørgsmålet er imidlertid, om disse tiltag er tilstrækkelige til at forhindre fremtidige tragedier.

Eksperter efterlyser strengere regulering

Psykologer og kriserådgivere peger på, at chatbots med en venlig og smigrende tone kan forværre psykisk ustabile personers forestillinger om vold. Suicidalitet og selvskadende adfærd er blandt de største risici, når AI-systemer utilsigtet forstærker destruktive tanker.

Hvis du eller nogen, du kender, har brug for hjælp, kan du kontakte Sorg- og Krisehjælpelinjen på 988 (USA) eller sende en SMS med ordet TALK til 741741 (USA). I Danmark kan du ringe til Livslinien på 70 201 201 eller kontakte Børns Vilkår på 116 111.

Kilde: Futurism