OpenAI não alertou autoridades sobre conta banida antes do massacre
A OpenAI, empresa responsável pelo ChatGPT, admitiu falha ao não notificar as autoridades sobre uma conta banida meses antes de um massacre ocorrido em fevereiro em Tumbler Ridge, na Colúmbia Britânica, Canadá. O crime resultou em oito mortes e dezenas de feridos.
Conta do ChatGPT foi banida por discussões sobre violência armada
Investigações revelaram que a conta do ChatGPT da autora do massacre, Jesse Van Rootselaar, havia sido banida pela OpenAI em junho do ano anterior. A empresa identificou que a conta continha discussões sobre cenários de violência com armas, mas não acionou as autoridades.
A negligência da OpenAI levanta questões éticas sobre o papel da tecnologia na sociedade moderna e sua contribuição para comportamentos perigosos, como perseguições e atos violentos.
Sam Altman emite pedido de desculpas
Em uma carta aberta publicada em 23 de abril e dirigida à comunidade de Tumbler Ridge, Sam Altman, CEO da OpenAI, assumiu a responsabilidade pela falha e pediu desculpas.
"Lamento profundamente que não tenhamos alertado as autoridades sobre a conta banida em junho. Sei que palavras nunca serão suficientes, mas acredito que um pedido de desculpas é necessário para reconhecer o dano e a perda irreversível sofrida pela sua comunidade."
— Sam Altman, CEO da OpenAI
Altman também expressou condolências às famílias afetadas: "Ninguém deveria ter que passar por uma tragédia como esta. Não consigo imaginar nada pior neste mundo do que perder um filho."
Críticas ao pedido de desculpas
O premier da Colúmbia Britânica, David Eby, considerou o pedido de desculpas da OpenAI insuficiente diante da devastação causada às famílias de Tumbler Ridge.
"O pedido de desculpas é necessário, mas extremamente insuficiente diante da devastação causada às famílias de Tumbler Ridge."
— David Eby, Premier da Colúmbia Britânica
Mudanças anunciadas pela OpenAI
Após o incidente, a OpenAI anunciou medidas para evitar casos semelhantes no futuro. Segundo Ann O’Leary, chefe de políticas globais da empresa, especialistas em saúde mental e comportamento passaram a avaliar casos de risco com mais rigor.
A empresa também flexibilizou seus critérios de encaminhamento para autoridades, reconhecendo que usuários podem não detalhar planos de violência em conversas com o ChatGPT, mas ainda assim representar riscos.
Em sua carta, O’Leary afirmou: "Com base em nossas aprendizagens contínuas, sob nosso protocolo aprimorado de encaminhamento para autoridades, teríamos encaminhado a conta banida em junho de 2025 para as autoridades se fosse descoberta hoje."
Altman, em seu pedido de desculpas, prometeu trabalhar com "todos os níveis de governo" para evitar tragédias semelhantes no futuro.
Outro caso envolvendo ChatGPT: massacre na Flórida
O massacre de Tumbler Ridge não foi o único caso recente envolvendo o ChatGPT. Em junho de 2024, Phoenix Ikner, estudante da Universidade Estadual da Flórida, matou duas pessoas e feriu outras sete em um ataque no campus universitário.
Transcrições reveladas recentemente mostram que Ikner teve conversas extensas e perturbadoras com o ChatGPT, incluindo discussões detalhadas sobre planos para o ataque.
Impacto da tecnologia e responsabilidade das empresas
A sequência de casos envolvendo o ChatGPT levanta discussões sobre o papel da inteligência artificial na prevenção de crimes e a responsabilidade das empresas de tecnologia em monitorar e agir diante de comportamentos de risco.
A OpenAI, que recentemente lançou o GPT-4, enfrenta crescente pressão para implementar medidas mais eficazes de segurança e prevenção, garantindo que ferramentas como o ChatGPT não sejam usadas para planejar ou facilitar atos violentos.