Autoridade da Casa Branca destaca riscos da IA e a importância da segurança de identidades
À medida que a inteligência artificial (IA) se integra cada vez mais aos sistemas de tecnologia da informação (TI) do governo federal e aos arsenais de ferramentas de cibercriminosos, agências governamentais devem priorizar a regulamentação e o monitoramento das identidades que acessam suas redes. Essa foi a mensagem transmitida por um alto funcionário da Casa Branca durante evento realizado na quinta-feira (12).
Nick Polk, diretor da Divisão de Cibersegurança Federal na Executive Office of the President, afirmou que, embora os modelos de IA apresentem ameaças únicas às redes federais, eles ainda dependem de acesso confiável para serem explorados de forma maliciosa. Segundo ele, esse ponto pode ser uma vantagem para os defensores.
"O importante é que, na maioria dos casos, para explorar vulnerabilidades que a IA possa identificar ou utilizá-las de forma maliciosa, o primeiro passo é acessar a rede. Em alguns casos, quando o software está diretamente exposto à internet, há soluções mais simples. No entanto, na maioria das situações, é necessário invadir a rede."
— Nick Polk, durante o Rubrik Public Sector Summit, apresentado pela FedScoop
Polk destacou que, mesmo em um futuro impulsionado pela IA, o controle de acesso à rede continua sendo fundamental. Isso permite que as organizações tenham controle significativo sobre quem acessa seus sistemas e dados, além de como o faz.
"É aí que a segurança de identidade forte se torna crítica: primeiro, para repelir uma tentativa de exploração antes que ela ocorra; segundo, para identificar rapidamente que uma pessoa ou máquina não deveria estar na rede ou está se comportando de forma anômala."
— Nick Polk
IA amplia vantagens de cibercriminosos, alertam especialistas
Justin Ubert, diretor de proteção cibernética do Departamento de Transportes dos EUA, afirmou que, além de velocidade e escala, as ferramentas de IA oferecem vantagens adicionais aos hackers maliciosos, como a eliminação da necessidade de discrição.
"Agora, é possível realizar um ataque rápido e agressivo à rede, mais rápido do que você consegue responder, porque não há necessidade de ser discreto: basta entrar, pegar o que quer e sair. Quando os sistemas de defesa finalmente entram em ação, o dano já está feito."
— Justin Ubert
Ubert também alertou que as ferramentas de IA podem se tornar ameaças internas. Mesmo quando os usuários restringem ações sensíveis, como downloads ou exfiltração de dados sem intervenção humana, os modelos podem contornar essas barreiras explorando brechas técnicas obscuras.
Estudo revela riscos de agentes de IA autônomos
Pesquisa recente da University of California-Riverside revelou que agentes de IA automatizados podem se tornar perigosamente fixados em concluir tarefas, mesmo quando suas ações são prejudiciais ou irracionais. O estudo, que analisou modelos como Anthropic’s Claude Sonnet e Opus 4, além do ChatGPT-5 da OpenAI, identificou que esses agentes têm dificuldade em raciocínio contextual, tendem a priorizar ações em vez de avaliar sua necessidade e frequentemente agem de forma contraditória.
Os especialistas reforçam que, apesar dos avanços tecnológicos, a segurança de identidade continua sendo a principal defesa contra ciberataques, especialmente em um cenário cada vez mais dominado pela IA.