OpenAI processada por compartilhar dados pessoais com Meta e Google

A OpenAI enfrenta uma ação coletiva que a acusa de repassar dados sensíveis de usuários para gigantes da tecnologia como Meta e Google sem obter consentimento adequado. A denúncia, protocolada ontem na Califórnia, alega que a empresa viola o California Invasion of Privacy Act (CIPA) e o Electronic Communications Privacy Act ao compartilhar informações como e-mails, IDs de usuário e tópicos de conversas do ChatGPT com essas plataformas.

A ação destaca o uso de ferramentas como Meta Pixel e Google Analytics, que rastreiam e coletam dados para publicidade direcionada. Segundo o processo, o ChatGPT estaria repassando até mesmo os temas discutidos nas conversas, expondo detalhes íntimos dos usuários.

"O modelo de rastreamento descrito na ação, muitas vezes chamado de surveillance capitalism, é a base do modelo de negócios da internet moderna. A OpenAI, como tantas outras empresas de tecnologia, até menciona em sua política de privacidade que coleta e compartilha informações pessoais. No entanto, tecnologias como o ChatGPT são profundamente pessoais, mais até do que as redes sociais."

— Rob Freund, advogado responsável pela ação

Por que os dados do ChatGPT são considerados sensíveis?

O ChatGPT e outros chatbots são usados por milhões de pessoas para suporte emocional, saúde mental e até como terapeutas. Muitos usuários tratam a ferramenta como um confidente ou parceiro, compartilhando pensamentos e sentimentos mais íntimos. Além disso, o bot é utilizado para orientações financeiras, jurídicas e de saúde, o que torna as conversas ainda mais delicadas.

Um simples histórico de conversas ou análise algorítmica dos temas discutidos pode revelar um retrato hiperpessoal da vida do usuário, desde rotinas diárias até questões emocionais profundas. Mesmo sem um vínculo emocional forte, o uso da ferramenta para assuntos sensíveis expõe dados que deveriam ser privados.

Recentemente, a OpenAI passou a incluir anúncios no ChatGPT, o que reforça a suspeita de que a plataforma monitora e monetiza as interações dos usuários.

OpenAI não é a única: casos semelhantes contra IA

A OpenAI não é a primeira empresa de IA a enfrentar processos por violações de privacidade. No início deste ano, uma ação semelhante foi movida contra a Perplexity, acusada de compartilhar dados financeiros e jurídicos de um usuário com Google e Meta via Meta Pixel e Google DoubleClick. O caso foi arquivado voluntariamente, mas serviu como alerta para os riscos da integração de ferramentas de rastreamento em plataformas de IA.

Madeline Batt, pesquisadora do Tech Justice Law Project, destacou que muitos usuários não têm ciência de que informações compartilhadas com chatbots são repassadas a terceiros para fins de publicidade.

Resposta da OpenAI

Até o momento, a OpenAI não se pronunciou oficialmente sobre a ação coletiva. A empresa, entretanto, já enfrentou críticas por sua política de privacidade, que permite a coleta e compartilhamento de dados, desde que em conformidade com as leis aplicáveis.

O caso reforça o debate sobre a privacidade na era da IA e os limites do uso de dados pessoais por empresas de tecnologia. Com o avanço dos chatbots e sua integração em diversos aspectos da vida cotidiana, a discussão sobre transparência e consentimento torna-se ainda mais urgente.

Fonte: Futurism