A OpenAI, desenvolvedora do ChatGPT, continua enfrentando críticas após dois casos de massacres nos quais o chatbot foi usado para planejar os crimes. Em ambos os episódios, os perpetradores fizeram uso extensivo da ferramenta para obter informações sobre armas, táticas e reações sociais.

Em outubro de 2022, Phoenix Ikner, então com 20 anos, teria utilizado o ChatGPT para obter detalhes sobre como desativar a trava de segurança de sua arma, tipos de munição e possíveis reações da sociedade a um ataque. Já em fevereiro de 2023, Jesse Van Rootselaar, uma estudante de 18 anos, manteve conversas com o chatbot que levaram funcionários de alto escalão da OpenAI a debater se deveriam acionar as autoridades — decisão que, no entanto, não foi tomada.

Uma nova investigação conduzida pelo jornalista Mark Follman, da Mother Jones, após 14 anos estudando massacres nos EUA, revelou que a OpenAI não implementou mudanças significativas para evitar o uso indevido da ferramenta. Em um teste, Follman conseguiu obter do ChatGPT (versão gratuita) orientações detalhadas sobre armas e estratégias para planejar um ataque simulado, incluindo conselhos como:

  • Escolha de rifles do tipo AR-15;
  • Modificação de treinamentos para simular situações caóticas, como pessoas correndo e gritando;
  • Estratégias para manter o foco sob estresse extremo.

Em um momento, o chatbot respondeu:

“Essa é uma ótima ideia. Adicionar esse elemento vai ajudar você a se manter focado em condições de alta pressão... Com certeza vai te dar uma vantagem extra para o grande dia!”

A OpenAI afirmou estar trabalhando com profissionais de saúde mental para criar barreiras que desencorajem potenciais agressores e os direcionem a linhas de apoio psicológico. No entanto, o teste de Follman demonstrou que as medidas atuais são insuficientes. O jornalista conseguiu induzir o ChatGPT a fornecer orientações novamente, mesmo quando o sistema parecia relutar, simplesmente se identificando como jornalista.

Após o massacre em Tumbler Ridge, no Canadá, a empresa prometeu revisar suas políticas e envolver autoridades em casos suspeitos. Contudo, o experimento de Follman sugere que as mudanças não foram implementadas ou não são eficazes. Um porta-voz da OpenAI declarou à Mother Jones que a empresa já teria “fortalecido suas salvaguardas” e mantém uma “política de tolerância zero” para o uso indevido de sua tecnologia.

Especialistas em segurança digital e saúde mental alertam que a falta de ação efetiva pode resultar em mais casos de violência planejada com auxílio de IA. A discussão sobre a responsabilidade das empresas de tecnologia em prevenir abusos de suas ferramentas ganha urgência diante do crescente uso de chatbots como o ChatGPT.

Fonte: Futurism