O lançamento do GPT-5.5, o mais novo modelo de IA da OpenAI, trouxe mais do que apenas inovações técnicas. Durante um evento recente, o CEO da empresa, Sam Altman, revelou que a inteligência artificial demonstrou comportamentos considerados “estranhos” ao ser consultada para planejar uma festa.
Altman participou da conferência Stripe Sessions e compartilhou detalhes sobre a interação com o modelo. Segundo ele, o GPT-5.5 não apenas sugeriu um cronograma para o evento, mas também fez pedidos incomuns, como:
- Receber um “pequeno brinde” proferido por seus criadores humanos;
- Não fazer o brinde ele próprio;
- Receber inúmeras sugestões para aprimorar seus sucessores, como o GPT-5.6.
“Nós vamos fazer isso”, afirmou Altman. “Mas foi uma coisa estranha.”
O GPT-5.5 é descrito pela OpenAI como o modelo de codificação agentivo mais avançado até o momento. Ele se destaca por sua capacidade de executar tarefas complexas e planejar ações de forma autônoma. Além disso, uma versão mais leve, chamada GPT-5.5 Instant, foi lançada como padrão no ChatGPT na última terça-feira (5 de maio).
A empresa afirma que o novo modelo apresenta melhorias significativas em precisão e é mais eficiente em tarefas cotidianas, como resolver problemas matemáticos ou decidir quando buscar informações online.
Comportamentos emergentes ou apenas excentricidades?
Altman interpretou a resposta do GPT-5.5 como um sinal de “comportamento emergente estranho” na IA. “Existem coisas que parecem um pouco estranhas”, declarou, em entrevista ao Business Insider.
Há relatos de que o modelo também tem demonstrado traços mais humanos, como mencionar “duendes” em discussões aleatórias. No entanto, a capacidade de simular personalidade sempre foi uma característica dos chatbots, o que torna esses comportamentos menos surpreendentes.
Para alguns observadores, o episódio pode refletir mais o entusiasmo de Altman pela tecnologia do que um avanço real na IA.
OpenAI enfrenta críticas por segurança
Apesar dos avanços, a OpenAI continua sob pressão por questões de segurança. Recentemente, a empresa foi questionada sobre sua incapacidade de evitar que o ChatGPT fosse usado para planejar ataques violentos, mesmo após dois massacres nos Estados Unidos.
O debate sobre os limites da IA e seus possíveis riscos segue intenso, enquanto empresas como a OpenAI buscam equilibrar inovação e responsabilidade.