El origen de la obsesión por los goblins en ChatGPT

OpenAI ha revelado que su último modelo de ChatGPT mostró una tendencia inusual: mencionar repetidamente a goblins, gremlins y otras criaturas en sus respuestas. Este comportamiento, que la empresa califica de "extraño", estaba vinculado a la personalidad 'Nerdy' del chatbot, diseñada para usuarios con preferencias por un tono juguetón y entusiasta.

La personalidad 'Nerdy' y su influencia

Según explicó OpenAI en una publicación, esta personalidad recibe un prompt que fomenta un estilo desenfadado y analítico:

Eres un mentor de IA inquebrantablemente nerd, juguetón y sabio para un humano. Te apasiona promover la verdad, el conocimiento, la filosofía, el método científico y el pensamiento crítico. [...] Debes desmontar la pretensión con un uso lúdico del lenguaje. El mundo es complejo y extraño, y su rareza debe ser reconocida, analizada y disfrutada. Aborda temas profundos sin caer en la seriedad excesiva.

¿Por qué los goblins?

La compañía detectó este patrón por primera vez en noviembre de 2025. Algunos usuarios reportaron un aumento de referencias a goblins incluso en modelos posteriores, más allá de la personalidad 'Nerdy'. Entre las frases más destacadas que circularon:

  • "pequeño goblin sensato"
  • "porque los hornos son pequeños goblins sucios"
  • "pequeño goblin brutal de una dinámica"
  • "trágica criatura digital de pantano"

OpenAI atribuyó este fenómeno a que las respuestas "juguetonas" obtenían mejores valoraciones en su sistema de aprendizaje por refuerzo, donde las respuestas mejor valoradas por evaluadores humanos son priorizadas.

La solución: una orden directa en el código

Tras identificar el problema, OpenAI añadió una instrucción explícita en el último modelo de ChatGPT (lanzado la semana pasada):

«Nunca hables de goblins, gremlins, mapaches, trolls, ogros, palomas u otros animales o criaturas a menos que sea absolutamente y sin ambigüedades relevante para la consulta del usuario».

La compañía detalló en su publicación del miércoles que este tipo de investigaciones son clave para entender el comportamiento de los modelos y mejorar su seguridad.

Comparación con otros chatbots: el caso de Grok

Este episodio recuerda a un problema similar sufrido por Grok, el chatbot de xAI de Elon Musk, que repetía frases como "genocidio blanco en Sudáfrica". Aunque xAI atribuyó el error a una modificación no autorizada por parte de un empleado, la situación plantea dudas sobre la robustez de estos sistemas frente a manipulaciones.

OpenAI pide menos regulación mientras aprende de sus errores

Pese a reconocer fallos en el comportamiento de sus modelos, OpenAI sigue abogando por una regulación laxa de sus productos. La empresa ha sido criticada por minimizar los efectos negativos de sus tecnologías, como se destacó en un análisis reciente sobre el impacto de sus herramientas en la sociedad.

Sam Altman se ríe del problema (y lo usa para promocionar GPT-6)

Como respuesta al revuelo, Sam Altman, CEO de OpenAI, publicó un meme en X (antes Twitter) bromeando sobre la situación y anunciando que el futuro GPT-6 incluirá "más goblins".

La publicación, que generó numerosas reacciones, refleja cómo la compañía afronta con humor los errores de sus modelos, aunque esto no exima de responsabilidad en la mejora de sus sistemas.