Diretrizes globais reforçam riscos dos agentes de IA autônomos

Agências de segurança cibernética dos Estados Unidos, Austrália, Canadá, Nova Zelândia e Reino Unido publicaram, na última sexta-feira, um conjunto de diretrizes para orientar organizações sobre a implantação segura de sistemas de IA autônomos. O documento destaca que a tecnologia já está sendo adotada em setores críticos, como infraestrutura e defesa, muitas vezes sem os devidos cuidados de segurança.

O que são agentes de IA autônomos?

Os chamados agentic AI são sistemas baseados em modelos de linguagem avançados capazes de planejar, tomar decisões e executar ações de forma independente. Para operar, esses sistemas precisam se conectar a ferramentas externas, bancos de dados, memórias e fluxos de trabalho automatizados, permitindo a execução de tarefas complexas sem supervisão humana constante.

As diretrizes foram elaboradas em parceria pela CISA (EUA), NSA (EUA), ASD’s ACSC (Austrália), CCCS (Canadá), NCSC (Nova Zelândia) e NCSC (Reino Unido).

Riscos identificados e abordagens de segurança

O documento não propõe um novo framework de segurança, mas recomenda a integração desses sistemas em estruturas já existentes, como os princípios de confiança zero, defesa em profundidade e menor privilégio.

Cinco categorias principais de risco foram destacadas:

  • Privilégio excessivo: Acesso excessivo pode ampliar danos em caso de comprometimento.
  • Falhas de design e configuração: Configurações inadequadas criam brechas antes mesmo da implantação.
  • Riscos comportamentais: O sistema pode perseguir objetivos não previstos pelos desenvolvedores.
  • Risco estrutural: Redes interconectadas de agentes podem propagar falhas em toda a organização.
  • Responsabilização: Processos de decisão complexos dificultam a rastreabilidade de erros e logs.

As agências alertam que falhas nesses sistemas podem resultar em arquivos alterados, controles de acesso modificados e trilhas de auditoria apagadas.

Ataques por injeção de prompt e gestão de identidade

O documento também aborda a injeção de prompt, técnica em que instruções maliciosas inseridas em dados manipulam o comportamento do agente. Esse é um problema recorrente em modelos de linguagem, considerado de difícil solução por algumas empresas.

Quanto à gestão de identidade, as agências recomendam:

  • Atribuição de identidades criptograficamente verificadas a cada agente.
  • Uso de credenciais de curta duração.
  • Criptografia de todas as comunicações entre agentes e serviços.
  • Autorização humana obrigatória para ações de alto impacto.

As diretrizes enfatizam que a definição de quais ações exigem aprovação humana deve ser feita pelos projetistas do sistema, não pelo próprio agente.

Falta de maturidade no setor de segurança

As agências reconhecem que o campo de segurança ainda não acompanhou o avanço dos agentes de IA. Alguns riscos específicos desses sistemas ainda não são cobertos por frameworks existentes, exigindo mais pesquisa e colaboração. O documento conclui que, até que práticas, métodos de avaliação e padrões se tornem mais maduros, as organizações devem assumir que os riscos persistem.