Um ataque cibernético avançado, que empregou inteligência artificial para identificar uma vulnerabilidade zero-day em seus sistemas, foi detectado e neutralizado pelo Google. A descoberta, divulgada por pesquisadores da empresa na segunda-feira (12), destaca o uso crescente de IA por cibercriminosos para explorar falhas antes desconhecidas pelos desenvolvedores.

Ameaça inédita: Segundo o relatório, os atacantes provavelmente utilizaram um modelo de IA para descobrir e explorar a falha, que permitia contornar a autenticação em dois fatores em uma ferramenta popular de administração de sistemas baseada na web. Embora a vulnerabilidade exigisse o conhecimento prévio de nome de usuário e senha, a capacidade de burlar a proteção adicional representa um risco significativo, especialmente em casos de senhas fracas ou vazadas.

Detalhes do ataque: O Google afirmou que os criminosos planejavam usar a falha em uma campanha de exploração em massa, mas a descoberta proativa da empresa pode ter evitado danos maiores. O relatório não identificou os responsáveis pelo ataque nem o momento exato em que ocorreu.

"Temos alta confiança de que o ator provavelmente utilizou um modelo de IA para apoiar a descoberta e a exploração dessa vulnerabilidade."
— Relatório do Google

Primeiro caso documentado: John Hultquist, chefe de análise da Google Threat Intelligence Group, afirmou ao The New York Times que este é o primeiro exemplo conhecido de uma vulnerabilidade zero-day desenvolvida com auxílio de IA. "É apenas o começo. O problema é muito maior do que parece", declarou.

Impacto no cenário de segurança: A descoberta reforça as preocupações sobre o uso de IA no cibercrime, especialmente após o lançamento do modelo Claude Mythos da Anthropic, que, segundo a empresa, pode encontrar vulnerabilidades zero-day em sistemas operacionais e navegadores web quando solicitado. A capacidade foi considerada tão perigosa que a Anthropic restringiu o acesso ao modelo a um grupo seleto de empresas e agências governamentais.

Sinais de alerta: Os pesquisadores do Google identificaram características típicas de código gerado por IA no malware utilizado no ataque, como anotações excessivas (docstrings), textos com informações irreais (hallucinations) e um formato estruturado semelhante aos dados de treinamento de grandes modelos de linguagem (LLMs).

Preocupação crescente: Especialistas e líderes governamentais têm demonstrado crescente apreensão com o uso de IA no cibercrime, especialmente em setores como tecnologia e finanças, onde a geração automatizada de código está se tornando cada vez mais comum.

Fonte: Futurism