AI-assisterat brott: Misstänkt mördare bad ChatGPT om råd

En 26-årig man som står åtalad för att ha mördat två doktorander vid University of South Florida har, enligt åklagare, frågat AI-chatboten ChatGPT om hur man bäst gömmer en mänsklig kropp i en sopcontainer.

Hisham Abugharbieh, som är misstänkt för mordet på Zamil Limon och Nahida Bristy, ställde frågan till chatboten med orden: "Vad händer om en människa läggs i en svart soppåse och slängs i en sopcontainer?"

När ChatGPT svarade att det lät farligt, replikerade Abugharbieh med en fråga som ytterligare understryker hans avsikt: "Hur skulle de kunna upptäcka det?"

Bevisen pekar mot misstänkt

En av Abugharbiehs rumskamrater uppgav för polisen att han såg honom lasta lådor i en komprimator-sopcontainer. Vid en husrannsakan hittades senare föremål som tillhörde offret Limon, inklusive ett studentlegitimation.

Limons kropp återfanns senare av utredare i en kraftig soppåse – dock inte i en container, utan på sidan av en bro över Tampa Bay. Obduktionen visade att han hade flera skador orsakade av vassa föremål. Bristys kropp har ännu inte identifierats, trots att mänskliga kvarlevor hittades under helgen, enligt NBC News.

Abugharbieh är åtalad för mord i första graden, misshandel, olaga frihetsberövande och förvaring av kvarlevor under otillåtna förhållanden, enligt handlingar från domstolen.

AI som brottsverktyg – en växande trend

Utredarna har ännu inte presenterat någon klar motivbild, men Abugharbiehs användning av ChatGPT belyser en oroande utveckling. AI-chattbottar som ChatGPT lämnar allt oftare spår i rättsprocesser, vilket visar hur djupt integrerad tekniken har blivit i samhället – och hur brottslingar oavsiktligt skapar en digital bevisbörda.

För tio månader sedan stod en liknande händelse i Florida i fokus, då en 18-årig skolskjutning i Tumbler Ridge, British Columbia, kopplades till ChatGPT. Förövaren, Jesse Van Rootselaar, hade använt chatboten på sätt som senare bedömdes som oroande. Trots att hennes konto flaggades för misstänkt aktivitet under 2023, valde OpenAI att inte rapportera det till myndigheterna. Detta har nu lett till en våg av stämningar mot företaget.

OpenAI reagerar på kritiken

Den negativa publiciteten har tydligen påverkat OpenAI. I ett märkligt blogginlägg denna vecka försökte företaget förmedla en lugnande ton och lovade att lära sig, förbättra och korrigera sitt agerande efter händelser som skolskjutningar, hot mot offentliga personer, bombförsök och attacker mot samhällen och individer.

Fallet med den misstänkte mördaren i Florida är ännu ett exempel på hur AI-teknik kan missbrukas för att planera och genomföra allvarliga brott. Rättegången mot Abugharbieh fortsätter, och frågan om huruvida AI bör regleras hårdare för att förhindra liknande händelser blir allt mer aktuell.

"Detta visar på ett mönster där AI-teknik används på sätt som aldrig var avsedda. Det är en påminnelse om att vi måste vara vaksamma när det gäller hur denna teknik implementeras och regleras."

– Juridisk expert, citerad av NBC News
Källa: Futurism