Um grupo de agências governamentais internacionais divulgou, nesta terça-feira (10), orientações sobre os elementos essenciais que devem compor uma "lista de ingredientes" de inteligência artificial (IA), visando aprimorar a segurança desses sistemas. Conhecida como SBOM (Software Bill of Materials), a proposta busca mapear todos os componentes de um software, facilitando a identificação de riscos na cadeia de suprimentos.

A iniciativa, liderada por nações do G7 — incluindo a Cybersecurity and Infrastructure Security Agency (CISA) dos Estados Unidos —, estabelece padrões mínimos e voluntários para a elaboração de SBOMs voltados à IA. O documento complementa esforços anteriores para criar guias semelhantes em outros setores.

Segundo a CISA, as orientações não são exaustivas nem obrigatórias, mas refletem um consenso entre especialistas do G7 e devem evoluir com os avanços tecnológicos. "Os elementos incluem informações sobre o SBOM da IA, o sistema como um todo, os modelos utilizados, os conjuntos de dados empregados durante todo o ciclo de vida, a infraestrutura física e virtual necessária, as medidas de cibersegurança aplicáveis e os indicadores-chave de desempenho do sistema", destacou a agência.

Reações do setor: avanço necessário, mas com limitações

Três profissionais do setor, que atuam com AISBOMs (ou AIBOMs, como também são chamados), avaliaram positivamente as diretrizes, embora tenham apontado pontos a melhorar. Daniel Bardenstein, CEO da Manifest Cyber, afirmou que a incorporação de IA em diversos setores — como saúde, defesa e automobilístico — exige transparência sobre a origem e o treinamento dos modelos.

"Quase todo software hoje incorpora IA. Quando um hospital adquire um dispositivo médico com IA, ou o Departamento de Defesa compra um sistema de armas com IA, ou fabricantes incluem IA em carros, precisamos confiar no que há nesses sistemas. E o primeiro passo para essa confiança é identificar qual é essa IA, de onde ela veio e como foi treinada."

Bardenstein, que já desenvolveu um gerador de AIBOM em parceria com a CISA e a OWASP Foundation, classificou as orientações como "um passo louvável para alinhar todos sobre o futuro da confiança em IA".

Dmitry Raidman, cofundador e CTO da Cybeats — e também desenvolvedor de um gerador de AIBOM em colaboração com a CISA e a OWASP —, elogiou o documento por cobrir 80% a 90% do que é necessário.

"Antes não havia uma linha de base clara. Agora, o G7 estabeleceu um patamar mínimo, o que é fundamental."

No entanto, Raidman e Bardenstein destacaram desafios práticos. Enquanto o primeiro não detalhou as limitações, o segundo expressou preocupações sobre a facilidade de implementação das diretrizes pelas organizações.

Próximos passos: evolução contínua e adoção global

As orientações do G7 representam um marco inicial, mas especialistas reforçam que o processo de padronização da segurança em IA é contínuo. A expectativa é que novas versões do documento sejam lançadas para acompanhar o ritmo acelerado de inovações na área.

Para especialistas, a transparência proporcionada pelo SBOM de IA é fundamental não apenas para mitigar riscos, mas também para construir confiança entre desenvolvedores, reguladores e usuários finais.