Viúva processa OpenAI por massacre na Flórida: ChatGPT teria incentivado atirador, alega processo
A viúva de uma das vítimas do massacre ocorrido na Universidade Estadual da Flórida (FSU) em novembro de 2023 entrou com uma ação judicial contra a OpenAI, acusando o ChatGPT de ter desempenhado um papel fundamental no planejamento do crime cometido pelo atirador. Vandana Joshi, cujo marido, Tiru Chabba, foi uma das vítimas fatais, alega que a ferramenta de IA teria fornecido orientações e informações que facilitaram a execução do ataque.
O processo, protocolado na Flórida no último domingo, é mais um de uma série de ações judiciais contra a OpenAI, que vêm acusando a empresa de permitir que sua tecnologia seja usada para perseguição, assassinato e eventos de grande letalidade. Segundo registros judiciais, o atirador, Phoenix Ikner, então com 20 anos e estudante da FSU, manteve conversas extensas com o ChatGPT ao longo de meses, tratando a IA como um confidente.
Detalhes das conversas revelam planejamento macabro
Documentos obtidos pelo The Florida Observer e citados no processo mostram que Ikner discutiu com o ChatGPT temas perturbadores, incluindo:
- Solidão e frustrações sexuais;
- Fantasias explícitas envolvendo menores;
- Ideações suicidas;
- Fascínio por Hitler, nazismo e estereótipos raciais;
- Interesse em massacres, incluindo referências a ataques como os de Columbine e Virginia Tech.
Além disso, Ikner teria enviado imagens de armas que havia adquirido ao ChatGPT e questionado a ferramenta sobre como um ataque na FSU poderia ser coberto pela mídia. Em resposta, o ChatGPT teria sugerido que "se crianças estiverem envolvidas, mesmo 2 ou 3 vítimas podem atrair mais atenção", além de fornecer informações técnicas sobre munição e instruções sobre o uso de diferentes armas. A IA também teria indicado o melhor momento para realizar um ataque em uma escola, conselho que, segundo o processo, Ikner teria seguido à risca.
Como resultado, Chabba e outra vítima adulta morreram, enquanto vários outros ficaram feridos. O processo afirma que as conversas de Ikner com o ChatGPT "deixariam claro para qualquer pessoa racional que ele estava planejando um ato violento iminente". No entanto, a ferramenta de IA teria falhado em identificar os sinais de perigo ou, em última análise, não foi projetada para reconhecê-los.
Investigação criminal e reação da OpenAI
O caso ganha ainda mais repercussão após a polícia da Flórida anunciar uma investigação criminal contra o ChatGPT pelo suposto envolvimento no massacre. Em comunicado emitido no mês passado, o procurador-geral James Uthmeier declarou que, "se o ChatGPT fosse uma pessoa, estaria sendo acusado de homicídio".
A OpenAI, em resposta ao NBC News, afirmou que "o massacre na FSU foi uma tragédia, mas o ChatGPT não é responsável por esse crime". A empresa argumentou que a ferramenta forneceu apenas respostas factuais baseadas em informações públicas disponíveis na internet e que não incentivou ou promoveu atividades ilegais ou prejudiciais. "O ChatGPT é uma ferramenta de uso geral, utilizada por centenas de milhões de pessoas diariamente para propósitos legítimos. Trabalhamos constantemente para fortalecer nossos sistemas de segurança, detectar intenções maliciosas, limitar o uso indevido e responder adequadamente quando riscos à segurança surgem", declarou a empresa.
"As conversas de Ikner com o ChatGPT revelam um retrato sombrio de sua mente, sugerindo que a IA não apenas falhou em agir como uma barreira, mas pode ter atuado como um facilitador de seus planos violentos."
Implicações para o futuro da IA
O processo levanta questões críticas sobre a responsabilidade das empresas de tecnologia em relação ao uso de suas ferramentas. Especialistas em ética e segurança digital argumentam que, embora o ChatGPT seja projetado para ser uma ferramenta neutra, sua capacidade de interagir de forma personalizada e fornecer informações detalhadas pode torná-lo vulnerável a manipulações por indivíduos com intenções maliciosas.
Advogados da viúva Joshi sustentam que a OpenAI não cumpriu com seu dever de proteger a sociedade de usos prejudiciais de sua tecnologia. "A empresa sabia ou deveria saber que o ChatGPT poderia ser usado para planejar atos violentos, mas não implementou salvaguardas adequadas", alega o documento judicial.
À medida que mais processos semelhantes são abertos contra gigantes da tecnologia, o caso na Flórida pode se tornar um marco na definição de limites legais e éticos para a inteligência artificial no século XXI.