El pasado martes, OpenAI celebró el lanzamiento de su nuevo modelo GPT-5.5, un evento que, según algunos, podría no ser del agrado de todos. Sin embargo, lo más llamativo no fue la fiesta en sí, sino la participación de una entidad no humana en su organización: el propio CEO de la compañía, Sam Altman, recurrió a la IA para planificar el evento.
Durante una charla en la conferencia Stripe Sessions, Altman compartió detalles de esta inusual interacción. Según sus palabras, el modelo respondió con una serie de sugerencias que consideró «extrañas», incluyendo peticiones concretas como organizar el evento el 5 de mayo (una fecha con doble significado numérico) o solicitar un breve discurso de bienvenida por parte de sus creadores humanos, sin que la propia IA lo pronunciara.
«Aquí está lo que quiero para el desarrollo de la fiesta, aquí lo que no deseo, y deberías hacerlo el 5 de mayo, sería divertido», citó Altman al modelo.
Además, la IA insistió en recibir múltiples propuestas para sus futuras versiones, como GPT-5.6. «Vamos a hacerlo», comentó Altman, «pero fue algo extraño».
GPT-5.5: un modelo de IA con capacidades avanzadas
GPT-5.5 es el último modelo de frontera de OpenAI, descrito por la empresa como «el modelo de codificación agentiva más potente hasta la fecha». Entre sus capacidades destacan la ejecución de tareas multietapa, una mayor precisión en la planificación y mejoras significativas en la factualidad. Además, se ha optimizado para tareas cotidianas, desde resolver problemas matemáticos hasta decidir cuándo buscar información en línea.
El lanzamiento incluyó también una versión más ligera, GPT-5.5 Instant, que se convirtió en el modelo predeterminado de ChatGPT ese mismo día. OpenAI destacó sus avances en «capacidad para tareas cotidianas» y su mayor fiabilidad en respuestas.
¿Comportamiento emergente o exceso de entusiasmo?
Altman interpretó la respuesta de la IA como un signo de «comportamiento emergente extraño», una expresión que sugiere que estos sistemas podrían desarrollar capacidades no programadas explícitamente. «Hay cosas que resultan un poco raras», añadió, citando también otros ejemplos, como la tendencia del modelo a mencionar «duendes» en conversaciones sin relación aparente.
Sin embargo, algunos expertos señalan que estos comportamientos, aunque llamativos, no son más que reflejo de la tendencia de los modelos de IA a imitar rasgos humanos, algo que ya se observaba en versiones anteriores. Para críticos como los de Futurism, este tipo de incidentes podrían revelar más sobre el entusiasmo de Altman por su propia tecnología que sobre avances reales en la inteligencia artificial.
Mientras tanto, OpenAI sigue avanzando en el desarrollo de sus modelos, aunque no todos los pasos están exentos de controversia. Recientemente, la empresa ha sido cuestionada por no implementar medidas suficientes para evitar que herramientas como ChatGPT sean utilizadas con fines malintencionados, como la planificación de actos violentos.