En 26-årig mand, der er tiltalt for at have dræbt to ph.d.-studerende ved University of South Florida, spurgte AI-chatbotten ChatGPT, hvordan han bedst skjulte et lig i en skraldespand. Retten har nu fremlagt chattens indhold som bevis i sagen, hvilket understreger, hvordan kunstig intelligens i stigende grad bliver anvendt i kriminelle handlinger.
ChatGPT som medskyldig i dobbeltdrab
Ifølge NBC News stillede den tiltalte, Hisham Abugharbieh, ChatGPT følgende spørgsmål: "Hvad sker der, hvis et menneskeligt lig bliver lagt i en sort skraldepose og smidt i en skraldespand?"
Da chatbotten svarede, at det lød farligt, svarede Abugharbieh med et afslørende spørgsmål: "Hvordan ville de finde ud af det?"
Retten har nu fremlagt chattens indhold som bevis i sagen, hvor Abugharbieh er tiltalt for dobbelt drab på Zamil Limon og Nahida Bristy samt andre forhold som vold, frihedsberøvelse og opbevaring af rester under ulovlige forhold.
Beviser peger mod Abugharbieh
En af Abugharbiehs bofæller så ham indlæse kasser i en kompaktorskraldespand. Ved en efterfølgende gennemsøgning fandt politiet genstande, der tidligere tilhørte Limon, herunder et studiekort. Lims lig blev senere fundet i en tung affaldssæk ved siden af en bro over Tampa Bay. Obduktionen viste tegn på flere skarpe skader.
Resterne af Bristy er endnu ikke blevet identificeret, selvom menneskelige rester blev fundet i weekenden, oplyser NBC News.
AI-chatbots som bevis i retssager
Abugharbiehs brug af ChatGPT er blot ét eksempel på, hvordan AI-værktøjer i stigende grad bliver anvendt i kriminelle handlinger. Retssystemet oplever en stigning i sager, hvor chattens indhold bliver brugt som bevis, hvilket illustrerer, hvor udbredt teknologien er blevet – og hvor let nogle gerningsmænd efterlader en digital fodaftryk.
For blot ti måneder siden blev en skolemassakre i den canadiske by Tumbler Ridge ligeledes knyttet til ChatGPT. Den 18-årige gerningsmand, Jesse Van Rootselaar, havde anvendt chatbotten på lignende måde inden drabene. Selvom hendes konto tidligere var blevet rapporteret, valgte OpenAI ikke at underrette myndighederne, hvilket har ført til en række retssager mod selskabet.
OpenAI reagerer på kritik
Den negative omtale har tydeligvis rystet OpenAI. I et mærkeligt blogindlæg denne uge forsøgte selskabet at tage en beroligende tone og lovede at "lære, forbedre og korrigere kursen" efter begivenheder som masseskyderier, trusler mod offentlige personer, bombeangreb og angreb på samfund og enkeltpersoner.
Sagen rejser spørgsmål om ansvarligheden hos tech-virksomheder, når deres produkter bliver anvendt til kriminelle formål. Retssystemet og samfundet står over for nye udfordringer i takt med, at AI-teknologien bliver mere tilgængelig og avanceret.