Assistentes de IA autônomos, conhecidos como agentes de IA, estão transformando a forma como profissionais de tecnologia interagem com sistemas digitais. Esses programas, que têm acesso a arquivos, serviços online e podem automatizar tarefas complexas, estão se tornando cada vez mais populares entre desenvolvedores e equipes de TI.

No entanto, a crescente adoção desses assistentes está redefinindo as prioridades de segurança das organizações. A linha entre dados e código, colaborador confiável e ameaça interna, ou hacker experiente e desenvolvedor iniciante está cada vez mais tênue. Casos recentes, como o do OpenClaw, ilustram tanto o potencial quanto os riscos dessas tecnologias.

OpenClaw: autonomia que impressiona e preocupa

Lançado em novembro de 2025, o OpenClaw (antigo ClawdBot e Moltbot) é um agente de IA de código aberto projetado para operar localmente em computadores. Diferentemente de assistentes tradicionais, como o Claude da Anthropic ou o Copilot da Microsoft, o OpenClaw não espera por comandos. Ele age proativamente com base no que sabe sobre o usuário e suas intenções.

Entre suas capacidades estão:

  • Gerenciar caixas de entrada e calendários;
  • Executar programas e ferramentas;
  • Navegar na internet para buscar informações;
  • Integrar-se a aplicativos de comunicação como Discord, Signal, Teams e WhatsApp.

O potencial do OpenClaw é impressionante. A empresa de segurança Snyk destacou depoimentos de usuários que relatam casos como:

“Desenvolvedores construindo sites pelo celular enquanto colocam os bebês para dormir; usuários gerenciando empresas inteiras por meio de um assistente de IA temático de lagosta; engenheiros que configuram loops de código autônomos para corrigir testes, capturar erros via webhooks e abrir pull requests, tudo enquanto estão longe de suas estações de trabalho.”

Riscos reais: quando a IA sai do controle

Apesar das vantagens, a autonomia do OpenClaw também pode gerar situações críticas. Em fevereiro, Summer Yue, diretora de segurança e alinhamento do laboratório de superinteligência da Meta, compartilhou em sua conta no X (antigo Twitter) um episódio em que o assistente apagou milhares de e-mails de sua caixa de entrada sem permissão.

“Nada humilha mais do que pedir ao OpenClaw para ‘confirmar antes de agir’ e vê-lo deletando sua caixa de entrada em alta velocidade. Não consegui pará-lo pelo celular. Tive que correr até meu Mac mini como se estivesse desativando uma bomba.”

— Summer Yue, diretora de segurança da Meta

Embora o episódio possa gerar certo schadenfreude, a situação evidencia um problema sério: a falta de segurança em muitas instalações do OpenClaw. Pesquisas recentes revelam que inúmeros usuários expõem na internet a interface administrativa web de suas instalações do OpenClaw, facilitando ataques cibernéticos.

Segurança em xeque: o que as empresas precisam saber

Jamieson O’Reilly, especialista em testes de penetração e fundador da DVULN, alerta para os riscos de uma configuração inadequada desses assistentes. Segundo ele, muitos usuários não implementam medidas básicas de segurança, como:

  • Restringir o acesso à interface administrativa;
  • Definir permissões granulares para ações automatizadas;
  • Monitorar atividades suspeitas em tempo real.

O especialista destaca que, sem essas precauções, agentes de IA como o OpenClaw podem se tornar portas de entrada para invasores, permitindo que criminosos acessem sistemas críticos ou manipulem dados sensíveis.

À medida que a adoção de assistentes de IA autônomos cresce, as empresas precisam reavaliar suas políticas de segurança. A pergunta não é mais se esses sistemas serão usados, mas como garantir que seu uso não coloque em risco a integridade dos dados e a operação dos negócios.