OpenAI amplia acesso ao GPT-5.5 para profissionais de cibersegurança

A OpenAI anunciou, nesta quinta-feira (17), o lançamento de uma versão menos restritiva do GPT-5.5 — apelidado internamente de "Spud" — direcionado a especialistas em ciberdefesa devidamente avaliados. Segundo a empresa, o modelo oferece capacidades comparáveis às do Mythos Preview da Anthropic, um dos principais concorrentes no segmento de IA para segurança cibernética.

Detalhes do lançamento e capacidades

O GPT-5.5-Cyber será disponibilizado em uma prévia limitada para profissionais responsáveis pela segurança de infraestruturas críticas, conforme comunicado oficial. Uma fonte próxima ao desenvolvimento do modelo afirmou à Axios que o Spud apresenta desempenho semelhante ao do Mythos, com uma pequena vantagem para este último em testes recentes.

Os especialistas aprovados no programa Trusted Access for Cyber da OpenAI receberão uma versão do modelo com menos barreiras de segurança em comparação à versão pública. Isso permitirá que eles:

  • Identifiquem e explorem vulnerabilidades em softwares;
  • Analisem malwares e suas técnicas de disseminação;
  • Realizem engenharia reversa de ataques;
  • Automatizem fluxos de trabalho comuns em cibersegurança.

Apesar das novas funcionalidades, a OpenAI manteve restrições em tarefas como roubo de credenciais e criação de malwares, visando evitar usos maliciosos.

Diferencial do GPT-5.5-Cyber

O modelo foi projetado especificamente para auxiliar os profissionais a:

  • Desenvolver provas de conceito para vulnerabilidades identificadas;
  • Executar simulações para avaliar a postura de segurança de suas organizações;
  • Analisar códigos desconhecidos;
  • Mapear superfícies afetadas por falhas;
  • Revisar correções para vulnerabilidades em softwares.

Avanços da IA em cibersegurança e debates regulatórios

Testes conduzidos pelo UK AI Security Institute revelaram que o GPT-5.5 conseguiu concluir um ataque cibernético simulado de 32 etapas em 20% das tentativas. O Mythos, por sua vez, atingiu o mesmo objetivo em 30% dos casos — um marco inédito até então para modelos de IA.

Esses avanços têm gerado discussões urgentes em Silicon Valley e na Casa Branca sobre como evitar que essas tecnologias caiam em mãos erradas. A OpenAI e a Anthropic adotam abordagens distintas para o lançamento de seus modelos:

  • Anthropic: Adota uma postura mais restritiva, permitindo acesso ao Mythos a cerca de 40 organizações, algumas das quais participam do Project Glasswing, onde compartilham insights sobre testes com o modelo.
  • OpenAI: Opta por uma estratégia mais aberta, lançando versões com diferentes níveis de restrição: uma com barreiras mais rígidas e outra, como o GPT-5.5-Cyber, com menos limitações para empresas aprovadas.

Próximos passos e regulamentação

A Casa Branca está avaliando uma série de ações executivas que podem redefinir o papel do governo federal na regulamentação de lançamentos futuros de modelos de IA. Especialistas destacam a necessidade de equilibrar inovação e segurança em um cenário onde os avanços tecnológicos superam rapidamente as medidas de proteção.

"A IA avançada está se tornando cada vez mais proficiente na identificação e exploração de falhas, desde sistemas operacionais até navegadores web. Esse cenário exige uma resposta coordenada entre empresas, governos e sociedade civil."

Para saber mais

Leia também: Corrida para proteger infraestruturas críticas acelera com avanços assustadores da IA

Fonte: Axios