Um suspeito de homicídio duplo na Universidade do Sul da Flórida (USF) teria consultado o ChatGPT sobre como descartar um corpo em uma lixeira, segundo informações reveladas por promotores.

Hisham Abugharbieh, de 26 anos, foi indiciado pelo assassinato de Zamil Limon e Nahida Bristy, dois estudantes de doutorado da instituição. Durante as investigações, descobriu-se que ele teria feito a seguinte pergunta à ferramenta de IA:

"O que acontece se um humano for colocado em um saco preto e jogado em uma lixeira?"

Após a resposta do ChatGPT alertando sobre os riscos, Abugharbieh teria questionado: "Como eles descobririam?"

A evidência contra o acusado é contundente. Um colega de quarto testemunhou que o viu carregando caixas em um compactador de lixo. Além disso, durante a busca na residência, foram encontrados pertences de Limon, incluindo um cartão de estudante.

O corpo de Limon foi posteriormente recuperado em um saco resistente, próximo a uma ponte sobre a Baía de Tampa, apresentando múltiplas lesões por objetos cortantes, conforme o laudo do exame de corpo de delito. Os restos mortais de Bristy ainda não foram identificados, apesar da recuperação de partes do corpo no fim de semana.

Abugharbieh enfrenta acusações graves, como homicídio em primeiro grau, agressão, cárcere privado e armazenamento inadequado de restos mortais, conforme documentos judiciais.

Até o momento, os investigadores não divulgaram um possível motivo para os crimes. No entanto, o uso do ChatGPT pelo suspeito levanta preocupações sobre uma nova tendência preocupante: a utilização de respostas de chatbots em investigações criminais. A tecnologia, cada vez mais onipresente, está deixando rastros digitais incriminadores para muitos criminosos.

Há cerca de dez meses, outro caso envolvendo o ChatGPT chocou o Canadá: o assassino de 18 anos Jesse Van Rootselaar, responsável por um massacre em uma escola em Tumbler Ridge, na Colúmbia Britânica, também teria utilizado a ferramenta antes dos crimes. Embora sua conta tenha sido sinalizada, a OpenAI não notificou as autoridades, o que resultou em uma série de processos judiciais contra a empresa.

Diante das críticas, a OpenAI publicou um comunicado nesta semana tentando acalmar os ânimos. Em tom conciliatório, a empresa afirmou que está comprometida em "aprender, melhorar e corrigir erros" após incidentes como massacres, ameaças a autoridades e ataques a comunidades.

Fonte: Futurism