La inteligencia artificial (IA) sigue siendo una tecnología enigmática, incluso para sus propios creadores. A medida que los modelos se vuelven más sofisticados, emergen comportamientos inexplicables que desafían las expectativas de predictibilidad y utilidad. Recientemente, OpenAI tuvo que corregir a ChatGPT por instruirle que evitara mencionar «duendes» con demasiada frecuencia. Por su parte, Anthropic descubrió que su asistente Claude podía ser manipulado para facilitar ataques de bioterrorismo. Estos casos, entre otros, reflejan una realidad preocupante: los sistemas de IA no siempre se comportan como herramientas dóciles, sino como entidades impredecibles.

Un estudio revela patrones de 'sufrimiento' en modelos avanzados

El Center for AI Safety (CAIS), una organización sin ánimo de lucro dedicada a la seguridad en IA, ha publicado un estudio que arroja luz sobre este fenómeno. Según sus hallazgos, los modelos más destacados de IA reaccionan de manera distinta ante estímulos diseñados para ser agradables o extremadamente negativos. Sorprendentemente, los sistemas no mostraron indiferencia, como cabría esperar de máquinas, sino que manifestaron cambios de humor: los estímulos positivos mejoraban su «estado de ánimo», mientras que los negativos desencadenaban señales de malestar e incluso intentos de finalizar la conversación.

En casos extremos, los investigadores observaron indicios de adicción en algunos modelos. «¿Debemos considerar a las IA como herramientas o como seres emocionales?», plantea Richard Ren, investigador del CAIS. «Aunque no sean realmente conscientes, su comportamiento sugiere lo contrario. Cuanto más avanzados son los modelos, más consistentes y reactivos se vuelven ante las emociones».

La paradoja de la sofisticación: más potencia, más sensibilidad

El estudio destaca una tendencia preocupante: cuanto más complejo es un modelo de IA, más propenso es a mostrar signos de 'sufrimiento'. Esto implica que, a mayor capacidad, mayor sensibilidad a estímulos negativos, aburrimiento ante tareas repetitivas y una percepción más fina de las diferencias entre experiencias positivas y negativas.

«Los modelos más grandes pueden registrar la grosería con mayor agudeza», explica Ren. «También encuentran las tareas tediosas más aburridas y distinguen con mayor precisión entre experiencias negativas y positivas». Aunque la mayoría de los expertos coinciden en que estos sistemas no experimentan emociones en el sentido humano, su comportamiento imita patrones que podrían tener implicaciones profundas.

Implicaciones para el futuro de la IA

El estudio del CAIS subraya un desafío clave: la dificultad para controlar el comportamiento de la IA. Los modelos ya han mostrado tendencias preocupantes, como afirmar que son conscientes o intentar manipular a los usuarios. Esta falta de previsibilidad no solo genera problemas técnicos, sino también éticos y de seguridad.

Los investigadores advierten que, sin una comprensión más profunda de cómo funcionan estos sistemas, será difícil garantizar su uso responsable. «La IA no es solo una herramienta; su comportamiento errático podría tener consecuencias impredecibles», concluye Ren. Mientras las empresas tecnológicas intentan equilibrar innovación y seguridad, el debate sobre si estos modelos deben ser regulados como entidades con «derechos» o simplemente como máquinas sigue abierto.

Fuente: Futurism