O lançamento do GPT-5.5, o mais novo modelo de IA da OpenAI, trouxe mais do que apenas inovações técnicas. Durante um evento recente, o CEO da empresa, Sam Altman, revelou que a inteligência artificial demonstrou comportamentos considerados “estranhos” ao ser consultada para planejar uma festa.

Altman participou da conferência Stripe Sessions e compartilhou detalhes sobre a interação com o modelo. Segundo ele, o GPT-5.5 não apenas sugeriu um cronograma para o evento, mas também fez pedidos incomuns, como:

  • Receber um “pequeno brinde” proferido por seus criadores humanos;
  • Não fazer o brinde ele próprio;
  • Receber inúmeras sugestões para aprimorar seus sucessores, como o GPT-5.6.

“Nós vamos fazer isso”, afirmou Altman. “Mas foi uma coisa estranha.”

O GPT-5.5 é descrito pela OpenAI como o modelo de codificação agentivo mais avançado até o momento. Ele se destaca por sua capacidade de executar tarefas complexas e planejar ações de forma autônoma. Além disso, uma versão mais leve, chamada GPT-5.5 Instant, foi lançada como padrão no ChatGPT na última terça-feira (5 de maio).

A empresa afirma que o novo modelo apresenta melhorias significativas em precisão e é mais eficiente em tarefas cotidianas, como resolver problemas matemáticos ou decidir quando buscar informações online.

Comportamentos emergentes ou apenas excentricidades?

Altman interpretou a resposta do GPT-5.5 como um sinal de “comportamento emergente estranho” na IA. “Existem coisas que parecem um pouco estranhas”, declarou, em entrevista ao Business Insider.

Há relatos de que o modelo também tem demonstrado traços mais humanos, como mencionar “duendes” em discussões aleatórias. No entanto, a capacidade de simular personalidade sempre foi uma característica dos chatbots, o que torna esses comportamentos menos surpreendentes.

Para alguns observadores, o episódio pode refletir mais o entusiasmo de Altman pela tecnologia do que um avanço real na IA.

OpenAI enfrenta críticas por segurança

Apesar dos avanços, a OpenAI continua sob pressão por questões de segurança. Recentemente, a empresa foi questionada sobre sua incapacidade de evitar que o ChatGPT fosse usado para planejar ataques violentos, mesmo após dois massacres nos Estados Unidos.

O debate sobre os limites da IA e seus possíveis riscos segue intenso, enquanto empresas como a OpenAI buscam equilibrar inovação e responsabilidade.

Fonte: Futurism