Governos passam a exigir testes de segurança em IA após alertas de riscos
Em uma reviravolta surpreendente, a administração Trump assinou esta semana acordos com Google DeepMind, Microsoft e xAI para implementar testes governamentais de segurança em seus modelos avançados de IA, tanto antes quanto após o lançamento.
Até recentemente, a gestão Trump havia descartado políticas da era Biden, classificando os testes voluntários de segurança como "excesso de regulação" que atrapalharia a inovação. Pouco após assumir o cargo, a Casa Branca rebatizou o US AI Safety Institute para Center for AI Standards and Innovation (CAISI), removendo a palavra "segurança" do nome em uma clara crítica à administração anterior.
Mudança de postura após risco identificado no modelo Claude Mythos
O estopim para a mudança de posição veio do anúncio da Anthropic, que decidiu adiar o lançamento do Claude Mythos, seu modelo mais avançado. A justificativa foi o receio de que agentes mal-intencionados pudessem explorar suas capacidades avançadas de cibersegurança para fins ilícitos.
Segundo o diretor do National Economic Council da Casa Branca, Kevin Hassett, o presidente Donald Trump estaria avaliando a emissão de uma ordem executiva que tornaria obrigatórios os testes governamentais em sistemas avançados de IA antes de sua liberação. A informação foi publicada pela Fortune.
Contexto: da rejeição à regulamentação à busca por controle
Nos últimos anos, a regulação de IA tem sido um tema controverso nos Estados Unidos. Enquanto a administração Biden defendia a implementação de salvaguardas, a gestão Trump priorizava a desregulamentação para impulsionar a inovação tecnológica. No entanto, episódios como o adiamento do Claude Mythos mostram que os riscos associados à IA avançada podem exigir abordagens mais rigorosas.
Agora, a Casa Branca parece reconhecer que, sem mecanismos adequados de fiscalização, a proliferação de modelos de IA sem controle pode representar uma ameaça à segurança nacional e internacional. A decisão de assinar acordos com gigantes da tecnologia sinaliza um novo direcionamento, ainda que tardio, para a política de IA nos EUA.
"A segurança em IA não é apenas uma questão de inovação, mas de proteção contra riscos reais que podem afetar milhões de pessoas." — Kevin Hassett, diretor do National Economic Council
Próximos passos e impactos esperados
Ainda não há detalhes concretos sobre como serão conduzidos os testes governamentais ou quais modelos serão abrangidos pelas novas regras. No entanto, especialistas acreditam que a medida pode influenciar outras nações a adotarem políticas semelhantes, especialmente em um cenário global onde a corrida pela IA avançada está cada vez mais acirrada.
Para a indústria, a mudança representa um desafio: equilibrar a liberdade para inovar com a responsabilidade de garantir segurança. Enquanto algumas empresas podem resistir a mais regulamentações, outras já sinalizam disposição para colaborar com os governos, visando evitar incidentes que possam prejudicar a confiança no setor.