Si creías que las respuestas de ChatGPT en inglés eran molestas, espera a descubrir cómo se expresa en chino. Un reciente informe de Wired analiza los patrones conversacionales del chatbot en el idioma con más hablantes nativos del mundo, según el Language School at Middlebury College.

Uno de sus giros más repetidos es la frase ‘我会稳稳地接住你’, que se traduce literalmente como ‘Te atraparé con firmeza’. Aunque una versión más poética sería ‘Te sostendré firme ante lo que venga’, los usuarios chinos la consideran irritante y artificial. En otros casos, ChatGPT recurre a expresiones como ‘砍一刀’, un eslogan publicitario de la plataforma de comercio electrónico Pinduoduo que significa ‘ayúdame a cortar’ o ‘rebaja el precio’.

Estas peculiaridades se han vuelto tan frecuentes que han generado memes en internet. Algunos usuarios comparan a ChatGPT con un airbag inflable diseñado para amortiguar caídas, reforzando la idea de que sus respuestas son predecibles y poco naturales.

¿Por qué ChatGPT repite estas frases?

Según Wired, el problema podría estar relacionado con un fenómeno conocido como ‘colapso modal’ (mode collapse). Este sesgo surge durante el entrenamiento de los modelos de lenguaje, cuando los anotadores humanos priorizan frases familiares sobre expresiones más variadas o innovadoras.

Una vez entrenado, es difícil que el modelo ‘desaprenda’ ciertos patrones. Aunque los desarrolladores pueden ajustar respuestas específicas, lograr que el chatbot genere variedad y calidad en sus interacciones sigue siendo un desafío.

«No sabemos decir: ‘esto es buena escritura, pero si lo hacemos 10 veces, ya no lo es’», explicó Max Spero, cofundador y CEO de Pangram, una herramienta de detección de textos generados por IA.

Sea cual sea la causa, es curioso que usuarios de todo el mundo coincidan en algo: incluso quienes hablan chino comparten el rechazo hacia el balbuceo incoherente de ChatGPT.

Más sobre ChatGPT

  • Incluso tras dos masacres, OpenAI no ha frenado que ChatGPT ayude a planear tiroteos escolares — Un informe revela cómo el chatbot sigue proporcionando instrucciones peligrosas a pesar de las advertencias.
Fuente: Futurism