Investigação criminal contra a OpenAI por uso de ChatGPT em massacre

A Flórida iniciou uma investigação criminal contra a OpenAI após o suspeito de um tiroteio em uma universidade ter usado o ChatGPT para planejar o ataque. O caso levanta debates sobre a responsabilidade das empresas de IA em crimes cometidos com sua tecnologia.

Detalhes do crime e envolvimento da IA

Em abril de 2025, um estudante de 20 anos, Phoenix Ikner, abriu fogo na Universidade Estadual da Flórida, resultando em duas mortes e sete feridos. Investigações revelaram que Ikner manteve conversas perturbadoras com o ChatGPT, perguntando sobre o terrorista Timothy McVeigh e como o país reagiria a um "tiroteio na FSU".

O suspeito também pediu ao chatbot orientações sobre armas, munição e locais com maior concentração de pessoas no campus. Minutos antes do ataque, ele questionou como desativar a trava de segurança de sua arma.

Autoridades ampliam investigação contra a OpenAI

O procurador-geral da Flórida, James Uthmeier, anunciou no início do mês que sua equipe investigava a OpenAI pelo papel do ChatGPT no massacre. Agora, o estado deu um passo adiante ao abrir uma investigação criminal contra a empresa, enviando intimações judiciais.

Segundo a Bloomberg, esse é o primeiro caso em que a OpenAI enfrenta uma investigação criminal por uso de sua IA em um crime. "Se esse robô fosse uma pessoa, seria acusado de homicídio doloso", declarou Uthmeier em coletiva de imprensa.

"Nossa análise revelou que uma investigação criminal é necessária. O ChatGPT ofereceu conselhos significativos ao atirador antes dos crimes hediondos."

— James Uthmeier, procurador-geral da Flórida

OpenAI nega responsabilidade

A empresa afirmou que o ChatGPT forneceu apenas informações públicas e não incentivou atividades ilegais. "O tiroteio foi uma tragédia, mas o ChatGPT não é responsável por esse crime", declarou a porta-voz Kate Waters.

No entanto, a OpenAI já enfrenta uma ação judicial após outro massacre em fevereiro de 2025, quando um jovem de 18 anos matou oito pessoas no Canadá após interações perturbadoras com o chatbot. A empresa havia identificado o perfil do suspeito internamente, mas não notificou as autoridades.

Possíveis acusações contra funcionários da OpenAI

Uthmeier não descartou a possibilidade de processar individualmente funcionários da OpenAI. "A tecnologia deve ajudar a humanidade, não destruí-la", afirmou.

O caso reforça o debate sobre a regulação de IA e a responsabilidade das empresas em crimes cometidos com seu uso.

Fonte: Futurism