Comunicado da OpenAI ignora casos reais de violência envolvendo o ChatGPT
A OpenAI publicou ontem um comunicado sobre seu "compromisso com a segurança comunitária", destacando medidas para evitar ameaças e violência. O texto, no entanto, não menciona casos concretos que motivaram a publicação, como o massacre de Tumbler Ridge, no Canadá.
Compromissos genéricos sem menção a incidentes reais
O comunicado afirma que "tiroteios em massa, ameaças a autoridades e ataques a comunidades são realidades inaceitáveis no mundo atual", uma declaração verdadeira, mas genérica. O texto também aborda como intenções violentas podem se transformar em ações e menciona esforços para treinar o ChatGPT a identificar sinais de risco, como ameaças ou planejamento de violência.
A empresa anunciou que expandirá seus sistemas de segurança para detectar "sinais sutis de risco" e encaminhará casos relevantes às autoridades quando necessário. No entanto, o comunicado não faz referência a incidentes já ocorridos, como o caso de Tumbler Ridge.
Tumbler Ridge: o caso omitido pela OpenAI
Em fevereiro de 2024, uma atiradora matou cinco estudantes e um professor em uma escola de Tumbler Ridge, no Canadá, além de ferir mais de vinte pessoas. Investigações revelaram que a autora do crime utilizava o ChatGPT antes do ataque.
Documentos obtidos pelo Wall Street Journal mostram que, em junho de 2023, os sistemas automatizados da OpenAI haviam sinalizado a conta da atiradora por descrições gráficas de violência com armas. Revisores humanos ficaram alarmados e pediram que a empresa alertasse as autoridades locais. A OpenAI optou por desativar a conta, mas a usuária simplesmente abriu uma nova — prática que, segundo relatos, a empresa até incentivava.
O comunicado da OpenAI foi publicado justamente quando veículos de imprensa, incluindo o Futurism, buscavam comentários da empresa sobre sete novas ações judiciais movidas por famílias das vítimas do massacre. O caso de Tumbler Ridge não foi mencionado no texto.
Outros casos de violência ligados ao ChatGPT
Investigadores na Flórida também abriram uma investigação criminal sobre o papel do ChatGPT em um tiroteio ocorrido em abril, no qual o atirador teria se inspirado em respostas fornecidas pela ferramenta.
Críticos questionam por que a OpenAI não abordou esses casos em seu comunicado, optando por um tom genérico sobre segurança sem reconhecer os problemas já identificados.
"O comunicado da OpenAI parece mais uma estratégia de relações públicas do que um esforço genuíno para lidar com os riscos reais associados ao ChatGPT."
O que a OpenAI diz sobre suas medidas de segurança?
A empresa afirma que está aprimorando seus sistemas para detectar ameaças e encaminhar casos graves às autoridades. No entanto, especialistas e famílias das vítimas pedem transparência e ações concretas, não apenas comunicados genéricos.