OpenAI ignorou alertas de especialistas e não notificou polícia sobre usuário do ChatGPT

A OpenAI poderia ter evitado um dos massacres mais letais da história do Canadá, segundo sete ações judiciais apresentadas nesta quarta-feira (14) em um tribunal da Califórnia. As denúncias revelam que a empresa de IA desconsiderou recomendações de sua própria equipe de segurança interna.

Mais de oito meses antes do ataque a uma escola em Uvalde, Canadá, especialistas treinados haviam identificado uma conta no ChatGPT vinculada ao atirador como uma ameaça credível de violência armada no mundo real. Nesses casos, a OpenAI teria a obrigação de notificar as autoridades — que, no caso em questão, já tinham um histórico do suspeito e haviam retirado armas de sua residência anteriormente. No entanto, isso não ocorreu.

Privacidade do usuário pesou mais que risco de violência, alegam denúncias

Segundo delatores ouvidos pelo The Wall Street Journal, a OpenAI teria decidido que a privacidade do usuário e o potencial estresse de um contato com a polícia superavam os riscos de violência. Líderes da empresa rejeitaram os apelos da equipe de segurança e optaram por não reportar o caso às autoridades.

A OpenAI simplesmente desativou a conta, mas, segundo as ações judiciais, instruiu o usuário sobre como reativar o acesso ao ChatGPT usando outro endereço de e-mail, permitindo que ele continuasse planejando o ataque.

Detalhes do massacre e contexto legal

O ataque ocorreu em uma escola primária em Uvalde, resultando na morte de 18 pessoas, incluindo 14 crianças. O atirador, identificado como um jovem de 18 anos, havia sido monitorado por meses devido a comportamentos preocupantes.

As ações judiciais argumentam que a OpenAI violou protocolos de segurança e negligenciou sua responsabilidade de proteger vidas. Os processos buscam indenizações por danos morais e materiais, além de mudanças nos procedimentos da empresa.

Repercussão e possíveis consequências

A OpenAI ainda não se manifestou publicamente sobre as acusações. Especialistas em segurança digital e direitos digitais já discutem o impacto dessas ações no futuro da regulação de inteligências artificiais, especialmente em relação à responsabilidade das empresas em casos de uso indevido de suas tecnologias.

Caso a justiça americana julgue os processos procedentes, a OpenAI poderá ser obrigada a revisar seus protocolos de segurança e a forma como lida com ameaças identificadas em suas plataformas.