A Câmara dos Representantes dos Estados Unidos está intensificando a análise sobre o modelo de inteligência artificial Mythos, desenvolvido pela Anthropic, em uma série de audiências e reuniões fechadas. O foco central é avaliar se e como o governo federal pode utilizar essa tecnologia, reconhecida por sua capacidade de identificar automaticamente vulnerabilidades cibernéticas.

Reunião fechada com a Anthropic e próximos passos

Na última quarta-feira (14), o Comitê de Segurança Interna da Câmara realizou uma reunião fechada com representantes da Anthropic. O presidente da subcomissão de cibersegurança do comitê, deputado Andy Ogles (Republicano do Tennessee), anunciou que planeja convocar uma audiência pública sobre o tema. Além disso, os democratas do comitê solicitaram uma reunião classificada com a empresa.

Entre os parlamentares que não puderam comparecer à reunião de quarta-feira estão o líder democrata do comitê, Bennie Thompson (Mississippi), e o próprio Ogles, ambos com conflitos de agenda. No entanto, uma fonte presente na reunião descreveu o encontro como produtivo.

"Os membros, de ambos os partidos, estavam focados em preservar a vantagem dos EUA em IA, o que, basicamente, se resumiu à manutenção da nossa liderança em poder computacional", afirmou a fonte. "Eles também fizeram perguntas sobre se o governo federal já está usando o Mythos, incluindo o papel da CISA e os impactos da designação de risco na cadeia de suprimentos."

A reunião foi conduzida, pela Anthropic, por Logan Graham, membro da equipe de segurança avançada da empresa, e Josh Tilstra, da área de programas e políticas de segurança nacional. Essa foi a segunda reunião fechada recente com a Anthropic e a OpenAI para o Comitê de Segurança Interna.

Divisão no uso do Mythos entre agências federais

Enquanto a Agência de Segurança Cibernética e Infraestrutura (CISA) ainda não utiliza o Mythos, a Agência de Segurança Nacional (NSA) já emprega a tecnologia para identificar vulnerabilidades cibernéticas. Essa divergência reflete um cenário mais amplo de tensões dentro do governo federal.

A situação ganhou contornos ainda mais complexos após o Departamento de Defesa dos EUA incluir a Anthropic em uma lista negra por "risco à cadeia de suprimentos", após a empresa resistir a pressões do Pentágono para usar seu modelo Claude AI de maneiras que não aprovava. Mesmo assim, o departamento afirmou estar utilizando o Mythos para detectar falhas de segurança.

Tensões internas no governo Trump sobre testes de IA

O The Washington Post revelou, nesta semana, que há uma disputa interna na administração Trump sobre a regulamentação e testes de modelos de IA. O deputado Jim Himes (Democrata de Connecticut), líder da minoria na Comissão de Inteligência da Câmara, classificou como "insano" a ideia de que as agências de inteligência dos EUA não tenham acesso antecipado a modelos avançados de IA.

A reunião sobre o Mythos ocorreu um dia após a OpenAI anunciar seu próprio programa de cibersegurança, reforçando o interesse crescente do governo e do setor privado em soluções baseadas em IA para proteção digital.