Mythos AI: Descoberta de vulnerabilidades levanta alerta global
A comunidade de cibersegurança entrou em estado de alerta em 7 de abril de 2026, quando a Anthropic anunciou que seu novo modelo de linguagem de grande porte, Claude Mythos Preview, havia demonstrado capacidades inesperadas e preocupantes. A IA foi capaz de identificar e explorar vulnerabilidades de software — os tipos mais graves de falhas — em uma escala sem precedentes.
A descoberta gerou discussões intensas entre governos, empresas de tecnologia e especialistas sobre os riscos que a IA representa para a segurança cibernética. Alguns chegaram a classificar o modelo como uma ameaça global. Em resposta, a Anthropic optou por não lançar o Mythos imediatamente, alegando riscos excessivos e responsabilidade moral. Em vez disso, a empresa concedeu acesso exclusivo a gigantes da tecnologia para testes, em um projeto chamado "Project Glasswing".
O que o Mythos realmente fez?
Durante avaliações controladas, engenheiros com pouca experiência em segurança foram capazes de usar o Mythos para escanear milhares de bases de código em busca de vulnerabilidades. O modelo demonstrou habilidades impressionantes, realizando ataques autônomos em múltiplos estágios — um processo que, normalmente, leva semanas ou meses para especialistas humanos.
Os resultados foram surpreendentes:
- No Firefox da Mozilla: O Mythos identificou 271 vulnerabilidades, desenvolvendo exploits para 181 delas.
- Em sistemas operacionais e navegadores: A equipe de red team da Anthropic e o AI Security Institute do Reino Unido relataram que o modelo encontrou milhares de vulnerabilidades zero-day — falhas ainda não corrigidas e prontas para serem exploradas.
- Em aplicações críticas: O Mythos localizou uma falha de segurança de 27 anos no OpenBSD e um bug de 16 anos no FFmpeg, ferramenta de processamento de áudio/vídeo. Algumas dessas vulnerabilidades permitem que usuários não autenticados assumam controle de máquinas.
O mais impressionante foi a velocidade: engenheiros com pouca experiência conseguiram, com a ajuda do Mythos, concluir ataques do início ao fim em uma única noite — algo que levaria semanas para humanos.
A capacidade de encadeamento de ataques surpreendeu até os especialistas
Em testes conduzidos pelo AI Security Institute, o Mythos conseguiu invadir uma rede corporativa simulada em três de dez tentativas — a primeira IA a atingir esse feito. Esses resultados são reais, mas também deixam lacunas importantes.
"O Mythos é impressionante, mas não representa uma ruptura radical. Ele é mais um espelho do comportamento humano e da fragilidade dos sistemas modernos do que uma ameaça inédita."
O que falta para o Mythos ser uma verdadeira revolução?
Apesar dos avanços, o Mythos ainda depende de engenheiros humanos para definir objetivos e interpretar resultados. Além disso, a maioria das vulnerabilidades encontradas já era conhecida ou tinha soluções em andamento — embora não implementadas.
Outro ponto crucial: o modelo não age sozinho. Ele segue regras definidas e depende de entrada humana para funcionar. Isso significa que, embora seja uma ferramenta poderosa, ainda está sujeito a limitações impostas por seus criadores e usuários.
Implicações para o futuro da cibersegurança
A descoberta do Mythos reforça a necessidade de atualizações constantes e melhores práticas de segurança. Sistemas antigos, com vulnerabilidades não corrigidas há décadas, mostram que o problema não é a IA em si, mas a falta de manutenção proativa.
Empresas e governos precisam investir em:
- Monitoramento contínuo de vulnerabilidades;
- Atualizações regulares de software;
- Treinamento de equipes para lidar com ferramentas de IA como o Mythos;
- Colaboração entre setor público e privado para mitigar riscos.
O Mythos pode ser um divisor de águas, mas sua maior lição é clara: a segurança cibernética depende menos da tecnologia e mais das pessoas e processos por trás dela.