Mercor: A startup que revelou os riscos da terceirização no treinamento de IA

A Mercor, uma startup de inteligência artificial sediada em São Francisco, expandiu-se rapidamente ao recrutar profissionais qualificados e subempregados para treinar modelos de IA. No entanto, a prática expôs graves falhas de segurança e ética, culminando em um vazamento de dados sensíveis que afetou clientes como OpenAI e Anthropic.

Contratação de mão de obra desesperada

A empresa atraiu trabalhadores com promessas de emprego em um mercado de trabalho hostil, mas manteve-os no escuro sobre os clientes finais. Segundo relatos, os contratados enfrentavam jornadas extenuantes, gerenciadas por gestores jovens e inexperientes, com contratos que podiam ser encerrados abruptamente.

Um ex-contratado, que preferiu não ser identificado, declarou:

"Trabalhávamos em turnos de 12 horas, sem saber para quem estávamos treinando os modelos. A empresa não oferecia transparência nem estabilidade."

Hackeada e processo judicial iminente

Em novembro, a Mercor admitiu ter sido vítima de um ataque cibernético explorando uma vulnerabilidade no projeto open source LiteLLM. Dados vazados incluíam conversas internas entre contratados e sistemas de IA, além de informações de clientes.

A empresa afirmou estar investigando o incidente com especialistas forenses:

"Estamos conduzindo uma investigação minuciosa com apoio de terceiros. Manteremos nossos clientes e contratados informados e dedicaremos recursos para resolver o problema o mais rápido possível."

— Porta-voz da Mercor

Desde então, cinco processos judiciais foram abertos contra a startup, acusando-a de violação de privacidade e leis de proteção ao consumidor. As acusações incluem possível exposição de dados sensíveis, como números de Seguro Social e endereços.

Reação dos clientes e riscos competitivos

A Meta suspendeu temporariamente seus contratos com a Mercor enquanto investiga o vazamento. No entanto, a principal preocupação não é o bem-estar dos trabalhadores, mas o risco de exposição de segredos comerciais.

Empresas como a Meta temem que informações sobre o treinamento de seus modelos de IA caiam em mãos de concorrentes, como OpenAI e Anthropic, também clientes da Mercor.

Histórico de más práticas

Antes do hack, a Mercor já enfrentava três ações coletivas por explorar mão de obra terceirizada. Em novembro, contratados relataram terem sido demitidos e, em seguida, recontratados em projetos com salários reduzidos.

Outra ex-contratada, que pediu anonimato, afirmou:

"A empresa não oferecia direitos trabalhistas básicos. Éramos descartáveis, mesmo com qualificações elevadas."

O futuro da terceirização no treinamento de IA

O caso da Mercor destaca os riscos éticos e de segurança da dependência de mão de obra terceirizada e mal remunerada para desenvolver tecnologias de IA. Especialistas alertam que a prática pode comprometer não apenas a privacidade, mas também a qualidade e a segurança dos sistemas de IA.

Enquanto empresas buscam reduzir custos, a falta de transparência e a exploração de trabalhadores podem gerar consequências irreversíveis.

Fonte: Futurism