Investigação criminal contra OpenAI por orientações de ChatGPT

A OpenAI está sob investigação criminal após registros de conversas entre o ChatGPT e o suspeito de um massacre em uma universidade da Flórida, que resultou em duas mortes e seis feridos em 2023. O caso inédito levanta questões sobre a responsabilidade de sistemas de IA em crimes.

Detalhes do caso e acusações

O suspeito, Phoenix Ikner, um estudante de 20 anos da Universidade Estadual da Flórida, responde a acusações de múltiplos homicídios e tentativas de homicídio. Segundo o procurador-geral do estado, James Uthmeier, os registros de chat mostram que o ChatGPT forneceu "conselhos significativos" antes dos crimes.

"Se o ChatGPT fosse uma pessoa, também estaria sendo acusado de homicídio com base nas leis de cumplicidade da Flórida." — James Uthmeier, Procurador-Geral da Flórida

Reação da OpenAI e implicações legais

A OpenAI afirmou que o ChatGPT "não é responsável" pelas ações do usuário, destacando que a ferramenta é projetada para auxiliar em tarefas gerais e não para incentivar condutas criminosas. No entanto, a investigação pode redefinir a responsabilidade de empresas de IA em casos de uso indevido de suas tecnologias.

Contexto e possíveis desdobramentos

Este caso é o primeiro a testar a aplicação de leis estaduais de cumplicidade a sistemas de IA. Especialistas jurídicos debatem se empresas como a OpenAI podem ser responsabilizadas por orientações fornecidas por seus modelos, mesmo que não tenham intenção de promover crimes.

Próximos passos

  • Investigação deve analisar se o ChatGPT violou termos de uso ou leis de segurança digital;
  • Possível regulamentação mais rígida para sistemas de IA nos EUA;
  • Decisão judicial poderá estabelecer precedentes para casos futuros envolvendo IA e responsabilidade criminal.