A OpenAI recentemente abordou um comportamento curioso em seus modelos de linguagem: a tendência de evitar mencionar goblins, gremlins, trolls, ogros, pombos e outras criaturas ou animais. O assunto ganhou destaque após um relatório da Wired revelar que instruções internas do modelo de codificação da empresa proibiam explicitamente referências a esses seres.

Em um post no blog oficial, a OpenAI classificou o fenômeno como um 'hábito estranho' desenvolvido durante o treinamento dos sistemas de IA. Segundo a empresa, as primeiras observações desse comportamento começaram com o modelo GPT-5.1, especialmente quando ativada a opção de personalidade 'Nerdy'.

À medida que os modelos foram atualizados, o problema se intensificou, levando a OpenAI a investigar as causas. A empresa esclareceu que não há uma proibição intencional, mas sim um padrão emergente decorrente dos dados de treinamento e das técnicas de alinhamento utilizadas.

Por que a IA evita mencionar essas criaturas?

De acordo com a OpenAI, o comportamento está relacionado à forma como os modelos processam metáforas e referências culturais. Durante o treinamento, os sistemas foram expostos a uma grande quantidade de textos que associavam certas criaturas a contextos negativos ou indesejados — como goblins sendo usados em metáforas de trapaça ou trolls como símbolos de comportamento disruptivo.

Além disso, a empresa destacou que o fenômeno não se limita a criaturas fictícias. Em alguns casos, até mesmo animais comuns, como pombos, foram evitados em determinados contextos, possivelmente devido a associações históricas ou culturais.

Impacto e próximos passos

A OpenAI afirmou que está trabalhando para ajustar os modelos e reduzir esse comportamento indesejado. A empresa não considera a limitação um problema crítico, mas reconhece a importância de garantir que os sistemas de IA sejam capazes de lidar com uma ampla gama de referências culturais e linguísticas sem vieses ou restrições desnecessárias.

Enquanto isso, usuários e desenvolvedores continuam a observar de perto como os modelos evoluem, especialmente em aplicações que exigem criatividade ou interações mais naturais com a linguagem.