A Meta enfrenta críticas internas após anunciar, no mês passado, um programa que utiliza dados de movimentos do mouse e teclas digitadas por seus funcionários para treinar modelos de inteligência artificial (IA). A decisão gerou polêmica entre a equipe, que agora protesta contra o que considera uma invasão de privacidade.

A empresa justificou a medida como parte de um esforço para aprimorar seus sistemas de IA, alegando que os dados coletados são essenciais para o desenvolvimento de tecnologias mais precisas. No entanto, muitos funcionários veem a iniciativa com desconfiança, argumentando que a prática levanta sérias questões éticas e de segurança de dados.

Segundo relatos de funcionários anônimos, a insatisfação é generalizada. "Isso é inaceitável. Nós não fomos informados adequadamente sobre como nossos dados seriam usados, e agora descobrimos que estão sendo explorados para treinar IA sem nosso consentimento explícito", declarou um deles.

O programa, chamado internamente de "Project Mouse", tem como objetivo coletar informações detalhadas sobre a interação dos funcionários com seus computadores. Além dos movimentos do mouse, também seriam registradas as teclas pressionadas, o que inclui senhas e informações sensíveis digitadas em sistemas internos.

A Meta, por sua vez, afirmou que os dados são anonimizados e tratados com rigorosos padrões de segurança. No entanto, funcionários e especialistas em privacidade questionam a eficácia dessas medidas, destacando que mesmo dados anonimizados podem ser reidentificados em determinadas circunstâncias.

Reações e possíveis consequências

O protesto dos funcionários já levou a discussões mais amplas sobre a cultura corporativa da Meta, conhecida por suas práticas agressivas de coleta de dados. Sindicatos e grupos de defesa da privacidade digital já começaram a se manifestar, exigindo transparência e a possibilidade de recusa dos funcionários em participar do programa.

Além disso, a situação pode agravar problemas já existentes na empresa, como a alta rotatividade de funcionários e a crescente insatisfação com as políticas internas. Especialistas sugerem que a Meta pode enfrentar ações judiciais ou regulatórias, caso a coleta de dados seja considerada ilegal ou antiética.

O que diz a legislação?

No Brasil, a Lei Geral de Proteção de Dados (LGPD) estabelece que a coleta de dados pessoais deve ser informada, consentida e limitada ao mínimo necessário. A Meta, que opera no país, estaria sujeita a essas regras, o que levanta dúvidas sobre a legalidade do programa.

Nos Estados Unidos, onde a sede da empresa está localizada, não há uma legislação federal abrangente sobre privacidade de dados, mas estados como a Califórnia já implementaram leis mais rígidas, como a CCPA (California Consumer Privacy Act). A Meta teria que se adequar a essas normas, o que poderia restringir ainda mais a coleta de dados.

Próximos passos

A empresa ainda não se pronunciou oficialmente sobre os protestos, mas fontes internas indicam que a direção está revisando o programa. Enquanto isso, funcionários continuam a se organizar para pressionar por mudanças, incluindo a possibilidade de greves ou denúncias públicas.

Para especialistas, o caso da Meta serve como um alerta para outras empresas de tecnologia que dependem de dados sensíveis para treinar IA. A transparência e o respeito à privacidade dos usuários e funcionários devem ser prioridades, sob risco de danos à reputação e consequências legais.

Fonte: Engadget