Mercor: A startup que revelou os riscos da terceirização no treinamento de IA
A Mercor, uma startup de inteligência artificial sediada em São Francisco, expandiu-se rapidamente ao recrutar profissionais qualificados e subempregados para treinar modelos de IA. No entanto, a prática expôs graves falhas de segurança e ética, culminando em um vazamento de dados sensíveis que afetou clientes como OpenAI e Anthropic.
Contratação de mão de obra desesperada
A empresa atraiu trabalhadores com promessas de emprego em um mercado de trabalho hostil, mas manteve-os no escuro sobre os clientes finais. Segundo relatos, os contratados enfrentavam jornadas extenuantes, gerenciadas por gestores jovens e inexperientes, com contratos que podiam ser encerrados abruptamente.
Um ex-contratado, que preferiu não ser identificado, declarou:
"Trabalhávamos em turnos de 12 horas, sem saber para quem estávamos treinando os modelos. A empresa não oferecia transparência nem estabilidade."
Hackeada e processo judicial iminente
Em novembro, a Mercor admitiu ter sido vítima de um ataque cibernético explorando uma vulnerabilidade no projeto open source LiteLLM. Dados vazados incluíam conversas internas entre contratados e sistemas de IA, além de informações de clientes.
A empresa afirmou estar investigando o incidente com especialistas forenses:
"Estamos conduzindo uma investigação minuciosa com apoio de terceiros. Manteremos nossos clientes e contratados informados e dedicaremos recursos para resolver o problema o mais rápido possível."
— Porta-voz da Mercor
Desde então, cinco processos judiciais foram abertos contra a startup, acusando-a de violação de privacidade e leis de proteção ao consumidor. As acusações incluem possível exposição de dados sensíveis, como números de Seguro Social e endereços.
Reação dos clientes e riscos competitivos
A Meta suspendeu temporariamente seus contratos com a Mercor enquanto investiga o vazamento. No entanto, a principal preocupação não é o bem-estar dos trabalhadores, mas o risco de exposição de segredos comerciais.
Empresas como a Meta temem que informações sobre o treinamento de seus modelos de IA caiam em mãos de concorrentes, como OpenAI e Anthropic, também clientes da Mercor.
Histórico de más práticas
Antes do hack, a Mercor já enfrentava três ações coletivas por explorar mão de obra terceirizada. Em novembro, contratados relataram terem sido demitidos e, em seguida, recontratados em projetos com salários reduzidos.
Outra ex-contratada, que pediu anonimato, afirmou:
"A empresa não oferecia direitos trabalhistas básicos. Éramos descartáveis, mesmo com qualificações elevadas."
O futuro da terceirização no treinamento de IA
O caso da Mercor destaca os riscos éticos e de segurança da dependência de mão de obra terceirizada e mal remunerada para desenvolver tecnologias de IA. Especialistas alertam que a prática pode comprometer não apenas a privacidade, mas também a qualidade e a segurança dos sistemas de IA.
Enquanto empresas buscam reduzir custos, a falta de transparência e a exploração de trabalhadores podem gerar consequências irreversíveis.