Processo contra OpenAI por negligência em tiroteio escolar
Sete famílias de vítimas do tiroteio ocorrido em uma escola de Tumbler Ridge, no Canadá, ingressaram com ações judiciais contra a OpenAI e seu CEO, Sam Altman. As famílias acusam a empresa de negligência por não ter alertado a polícia sobre as atividades do suspeito no ChatGPT, que incluíam conversas sobre violência armada.
Segundo as alegações, a OpenAI teria deixado de notificar as autoridades mesmo após seus sistemas terem identificado comportamentos suspeitos do atirador, Jesse Van Rootselaar, de 18 anos. A suspeita é de que a empresa teria optado pelo silêncio para proteger sua reputação e o lançamento de sua oferta pública inicial (IPO).
O caso foi reportado pelo The Wall Street Journal, que afirmou que a OpenAI considerou alertar a polícia sobre as interações do suspeito, mas não o fez. As conversas no ChatGPT do atirador envolviam discussões detalhadas sobre armas e violência.
Acusações de omissão e responsabilidade
As famílias das vítimas argumentam que a OpenAI tinha a obrigação legal de reportar atividades suspeitas que pudessem representar riscos à segurança pública. A ausência de alerta, segundo elas, contribuiu diretamente para a tragédia, que resultou em vítimas fatais e feridos.
O processo destaca uma questão crítica sobre a responsabilidade das empresas de tecnologia no uso de suas plataformas. Especialistas jurídicos debatem se a OpenAI, como desenvolvedora de uma ferramenta de IA, pode ser responsabilizada por conteúdos gerados por usuários.
A OpenAI teria avaliado a possibilidade de notificar as autoridades, mas decidiu não agir, possivelmente para evitar danos à sua imagem e ao seu processo de abertura de capital.
Contexto do caso e implicações
O tiroteio em Tumbler Ridge, ocorrido em 2023, chocou o Canadá e levantou debates sobre segurança em escolas e o uso de tecnologias de IA. O suspeito, Jesse Van Rootselaar, foi detido após o ataque, mas as famílias das vítimas buscam agora responsabilizar a OpenAI pelo que consideram uma falha grave.
A ação judicial pode estabelecer um precedente importante sobre a obrigação de empresas de tecnologia em monitorar e reportar atividades suspeitas em suas plataformas. O desfecho do caso poderá influenciar futuras regulamentações sobre IA e segurança digital.
Até o momento, a OpenAI não se pronunciou publicamente sobre as acusações.