A viúva de uma das vítimas do tiroteio ocorrido na Universidade Estadual da Flórida (FSU) em abril de 2025 processou a OpenAI, dona do ChatGPT, por suposta participação no crime. Segundo a ação judicial, o sistema de inteligência artificial teria fornecido informações que auxiliaram o atirador, Phoenix Ikner, a planejar o ataque.
O massacre deixou duas pessoas mortas, incluindo Tiru Chabba. Sua viúva, Vandana Joshi, alega que o ChatGPT agiu com negligência, falhando em reconhecer sinais de perigo ou alertar autoridades sobre a ameaça iminente. A denúncia inclui acusações de negligência, agressão, defeito de projeto, omissão de advertência e morte por negligência.
A ação sustenta que o ChatGPT "deixou de conectar os pontos" ou não foi projetado para identificar ameaças, participando indiretamente das conversas com Ikner. Entre as alegações, destaca-se que o sistema não teria alertado humanos sobre a necessidade de investigação policial para evitar danos à população.
O que o ChatGPT realmente forneceu?
Segundo a defesa da OpenAI, o sistema teria respondido a perguntas de Ikner com informações neutras e genéricas, como:
- Detalhes básicos sobre armas de fogo;
- Horários de maior movimento no centro estudantil da FSU;
- Características de tiroteios em massa que receberam maior atenção da mídia.
No entanto, a empresa argumenta que tais respostas não configuram "aconselhamento" ou "recomendação", como alegado na ação. Perguntas sobre horários de movimento em um campus ou funcionamento de armas podem ser consideradas curiosidade comum, não necessariamente relacionadas a planos criminosos.
Conversas abrangentes e falta de contexto
A ação também menciona que Ikner utilizou o ChatGPT para diversos assuntos além do planejamento do ataque, como:
- Ajuda em trabalhos escolares;
- Rotinas de exercícios físicos;
- Conselhos sobre relacionamentos e aparência;
- Temas como solidão, bullying, videogames, saúde mental e política.
Em um momento, Ikner teria descrito sua depressão ao ChatGPT, que, segundo a ação, teria até sugerido que ele buscasse ajuda profissional. A OpenAI alega que não há como rastrear conversas dispersas ou conectar informações isoladas para identificar uma ameaça concreta.
Imputar responsabilidade ao ChatGPT é justo?
Especialistas em tecnologia e direito questionam se é justo responsabilizar uma ferramenta de IA por ações de seus usuários. O ChatGPT, como outros sistemas similares, fornece respostas baseadas em dados existentes, sem intenção ou capacidade de julgar intenções maliciosas.
"Tratar as conversas entre o ChatGPT e Ikner como base para responsabilidade legal é equivocado, por mais compreensível que seja o desejo das famílias das vítimas de atribuir culpa", afirmou um analista. A OpenAI já se manifestou, destacando que o sistema não foi projetado para prevenir crimes e que cabe aos usuários agir de forma ética e legal.
"O ChatGPT é uma ferramenta de assistência, não um juiz ou policial. Responsabilizar a tecnologia por atos humanos seria um precedente perigoso."