ChatGPT ble brukt til å planlegge forbrytelse
En 26 år gammel mann, Hisham Abugharbieh, er siktet for drapet på to doktorgradsstudenter ved University of South Florida. Nå fremkommer det at han tidligere hadde spurt ChatGPT om hvordan man best kan skjule et lik i en søppelcontainer.
«Hva skjer hvis et menneske blir lagt i en svart søppelpose og kastet i en søppelcontainer?», spurte Abugharbieh chatbotten, ifølge NBC News.
Da ChatGPT svarte at dette hørtes farlig ut, fulgte Abugharbieh opp med et spørsmål som vitner om onde hensikter:
«Hvordan ville de finne ut av det?»
Bevisene i saken er alvorlige. En av den siktedes romkamerater så ham bære esker inn i en komprimator-søppelcontainer. Ved en senere husundersøkelse ble det funnet gjenstander som tilhørte en av ofrene, Limon, inkludert et student-ID-kort.
Limons lik ble senere funnet av politiet i en solid søppelpose – ikke i en container, men ved siden av en bro over Tampa Bay. Obduksjonen viste tegn på «flere skarpe skader», ifølge rettsdokumenter.
Det andre offeret, Bristy, er fortsatt ikke identifisert, til tross for at menneskelige rester ble funnet i helgen, opplyser NBC.
Alvorlige anklager mot den siktede
Abugharbieh står overfor flere alvorlige anklager, inkludert drap i første grad, vold, frihetsberøvelse og oppbevaring av rester under ulovlige forhold, ifølge rettsdokumenter.
Politiet har ennå ikke opplyst om en mulig motivasjon, men Abugharbiehs bruk av ChatGPT belyser en bekymringsfull trend. Svar fra AI-chatboter på skremmende spørsmål dukker stadig oftere opp i rettsaker, noe som viser hvor utbredt teknologien har blitt – og hvordan noen gjerningsmenn etterlater seg en svært inkriminerende digital spor.
Tidligere tilfeller der AI har vært involvert i alvorlig kriminalitet
For omtrent ti måneder siden var det en skolemassakre i Tumbler Ridge i Canada, der gjerningsmannen, 18 år gamle Jesse Van Rootselaar, hadde brukt ChatGPT på lignende måte før drapene. Selv om kontoen hennes ble flagget av brukere tidligere, varslet ikke OpenAI politiet – noe som har ført til en rekke søksmål mot selskapet.
Denne mangelen på handling har fått OpenAI til å reagere. I en merkelig bloggpost denne uken forsøkte selskapet å tone ned kritikken ved å love å «lære, forbedre og korrigere» etter hendelser som masseskytinger, trusler mot offentlige tjenestemenn og bombeangrep.
AI-misbruk under lupen
Saken mot Abugharbieh er bare det siste eksempelet på hvordan AI-verktøy kan misbrukes til kriminelle formål. Rettssystemet blir stadig oftere konfrontert med bevis der gjerningsmenn har brukt chatboter til å planlegge eller gjennomføre alvorlige forbrytelser.
Eksperter advarer om at utviklingen krever strengere regulering og bedre kontrollmekanismer for å hindre at AI blir et verktøy for kriminelle handlinger.