Modelos avançados de IA desenvolvidos pela Anthropic e OpenAI estão transformando a cibersegurança, mas especialistas destacam que a expertise humana ainda é fundamental para operá-los com eficiência. Testes em ambientes reais revelam que, embora essas ferramentas identifiquem milhares de vulnerabilidades, a intervenção de profissionais qualificados é crucial para validar resultados e evitar erros.

O poder da IA na detecção de vulnerabilidades

Quando a Anthropic lançou o Mythos Preview, a empresa alertou que o modelo era tão potente que identificou dezenas de milhares de falhas em quase todos os sistemas operacionais. Testes independentes indicam que o GPT-5.5-Cyber da OpenAI apresenta desempenho semelhante, sendo capaz de encontrar bugs e criar exploits com alta eficácia. Essa capacidade tem atraído o interesse de grandes corporações e governos, que buscam antecipar os riscos de ciberataques cada vez mais avançados.

Empresas como a Palo Alto Networks relataram que, ao utilizar os modelos da Anthropic e OpenAI, conseguiram identificar 75 vulnerabilidades em um único teste — um número significativamente maior do que as 5 a 10 falhas detectadas mensalmente em suas análises tradicionais. Além disso, os modelos demonstraram capacidade de conectar vulnerabilidades aparentemente menores, formando cadeias de ataques potencialmente perigosas.

A Microsoft anunciou recentemente que seu novo sistema de segurança baseado em IA, que utiliza modelos avançados, identificou 16 novas vulnerabilidades no Windows networking and authentication stack. A empresa também alertou que ferramentas de IA tendem a aumentar o volume de vulnerabilidades descobertas ao longo do tempo, pressionando as equipes de defesa a priorizar e corrigir falhas com maior agilidade.

A Cisco, por sua vez, lançou o Foundry Security Spec, um guia open-source que orienta organizações sobre como integrar modelos avançados de IA em suas estratégias de segurança. A empresa também destacou em seus documentos técnicos que modelos de fronteira produzem afirmações sobre vulnerabilidades que, embora fluentes e confiantes, podem estar erradas em uma taxa que inviabiliza o uso de saídas não revisadas.

Os limites da IA e a necessidade de supervisão humana

Apesar dos avanços, os testes revelam que os modelos de IA ainda apresentam limitações significativas. A XBOW, uma startup especializada em testes de penetração baseados em IA, descreveu o Mythos como "extremamente poderoso para auditorias de código-fonte", mas também observou que o modelo tem dificuldades em validar exploits e pode ser "literal e conservador demais", superestimando a relevância prática de suas descobertas.

A Palo Alto Networks, que trabalha com o Mythos, Opus 4.7 e GPT-5.5-Cyber, registrou uma taxa de 30% de falsos positivos em seus produtos. No entanto, a empresa notou que esse índice diminuiu após treinar os modelos no ambiente específico que estavam analisando.

O desenvolvedor líder do projeto open-source Curl, Daniel Stenberg, compartilhou recentemente que o Mythos identificou uma vulnerabilidade de baixa gravidade no código do projeto, além de vários falsos positivos e um problema considerado irrelevante pela equipe. Esse caso reforça a necessidade de revisão humana constante para filtrar resultados e evitar desperdício de recursos.

Cisco recomenda abordagem estruturada para validar resultados

Nos documentos técnicos da Cisco, os pesquisadores sugerem que, em vez de simplesmente instruir os modelos a serem mais cautelosos, é mais eficaz treiná-los para produzir afirmações "verificáveis". Essa abordagem reduz a dependência de revisões manuais e melhora a confiabilidade dos resultados.

O Foundry Security Spec da Cisco propõe um framework para integrar modelos de IA em processos de segurança, enfatizando a importância de combinar automação com supervisão humana qualificada. Segundo a empresa, a combinação ideal é aquela em que a IA acelera a detecção de vulnerabilidades, enquanto os especialistas humanos validam, interpretam e aplicam as correções necessárias.

O futuro da cibersegurança: IA e humanos lado a lado

Os especialistas concordam que, embora a IA esteja revolucionando a detecção de vulnerabilidades, o papel dos humanos continua insubstituível. Modelos avançados podem identificar milhares de falhas em questão de minutos, mas cabe aos profissionais de segurança filtrar os resultados, priorizar riscos e implementar medidas corretivas.

À medida que os ciberataques se tornam mais sofisticados, a colaboração entre IA e especialistas humanos será cada vez mais crítica. Empresas e governos que adotarem essa abordagem híbrida estarão melhor preparados para enfrentar os desafios do cenário atual de ameaças digitais.

"A IA está mudando a forma como detectamos vulnerabilidades, mas a supervisão humana é essencial para garantir que os resultados sejam precisos e acionáveis." — Pesquisador de segurança anônimo.

Fonte: Axios