Ein 26-jähriger Mann aus Florida, der des Mordes an zwei Doktoranden der University of South Florida beschuldigt wird, soll ChatGPT gefragt haben, wie man eine Leiche in einem Müllcontainer versteckt. Die Enthüllung unterstreicht die wachsende Besorgnis über den Missbrauch von KI-Technologien für kriminelle Zwecke.

Hisham Abugharbieh, der wegen des Mordes an Zamil Limon und Nahida Bristy angeklagt ist, stellte dem Chatbot laut NBC News folgende Frage: „Was passiert, wenn ein Mensch in einen schwarzen Müllbeutel gepackt und in einen Müllcontainer geworfen wird?“

ChatGPT antwortete, dass dies gefährlich klinge. Darauf folgte die lapidare Nachfrage des Verdächtigen: „Wie würden sie es herausfinden?“

Die Ermittlungen ergaben weitere belastende Hinweise: Ein Mitbewohner beobachtete, wie Abugharbieh Kisten in einen Müllverdichter lud. Bei einer Durchsuchung fanden sich Gegenstände, die Limon gehörten, darunter eine Studentenausweis. Die Leiche von Limon wurde später in einem schweren Müllbeutel an einer Brücke über die Tampa Bay entdeckt – mit Anzeichen für „mehrere scharfe Gewalteinwirkungen“, wie der Autopsiebericht zeigt. Die Überreste von Bristy wurden zwar gefunden, ihre Identifizierung steht jedoch noch aus.

Abugharbieh muss sich wegen Mordes ersten Grades, Körperverletzung, Freiheitsberaubung und der Lagerung von Überresten unter unzulässigen Bedingungen verantworten. Ein mögliches Motiv ist noch ungeklärt. Sein Umgang mit ChatGPT wirft jedoch ein Schlaglicht auf einen besorgniserregenden Trend: Immer häufiger werden Antworten von KI-Chatbots in Gerichtsakten als Beweismittel herangezogen. Dies zeigt, wie allgegenwärtig diese Technologie inzwischen ist – und wie leicht Täter digitale Spuren hinterlassen.

Bereits vor etwa zehn Monaten war ChatGPT in einen ähnlichen Fall verwickelt: Der 18-jährige Jesse Van Rootselaar, der einen Amoklauf in der kanadischen Kleinstadt Tumbler Ridge plante, nutzte den Chatbot für seine Vorbereitungen. Obwohl sein Konto bereits im Vorjahr auffällig wurde, unterließ OpenAI eine Meldung an die Behörden. Diese Unterlassung hat nun eine Welle von Klagen ausgelöst.

Der Vorfall hat OpenAI offenbar unter Druck gesetzt. In einem ungewöhnlichen Blogbeitrag versuchte das Unternehmen, beruhigend zu wirken und versprach, aus den Vorfällen zu lernen und seine Systeme zu verbessern. In dem Beitrag heißt es:

„Wir werden aus diesen Ereignissen lernen, uns verbessern und Kurskorrekturen vornehmen – nach Amokläufen, Drohungen gegen Amtsträger, Bombendrohungen und Angriffen auf Gemeinschaften und Einzelpersonen.“

Die zunehmende Nutzung von KI-Tools für kriminelle Zwecke wirft grundsätzliche Fragen auf: Wie können Plattformen wie OpenAI sicherstellen, dass ihre Technologien nicht missbraucht werden? Und welche Rolle spielen sie bei der Prävention von Gewaltverbrechen?

Quelle: Futurism