Los modelos de lenguaje, como ChatGPT, han revolucionado la forma en que interactuamos con la tecnología, pero su influencia va más allá de las pantallas. Una vez que se reconocen sus patrones característicos —desde el uso excesivo de guiones em hasta estructuras gramaticales repetitivas—, es imposible ignorar su presencia en el lenguaje cotidiano. El fenómeno se ha extendido tanto que los expertos alertan sobre un riesgo real: la posible transformación de nuestra forma de hablar en la vida real.

Un problema de fondo en los modelos de lenguaje

Historiadora Ada Palmer y el criptógrafo Bruce Schneier, en un artículo de opinión para The Guardian, señalan que los grandes modelos de lenguaje (LLM) presentan una debilidad fundamental. Aunque se entrenan con enormes cantidades de texto —libros, publicaciones en redes sociales, películas y grabaciones—, este material suele carecer de lo que define la comunicación humana espontánea: conversaciones cara a cara o voz a voz. Estas interacciones, que representan la mayoría del habla cotidiana, son esenciales para nuestra cultura y pensamiento.

El problema no es menor. Según los expertos, podríamos estar adoptando patrones lingüísticos artificiales sin darnos cuenta, lo que distorsionaría nuestra percepción del mundo y la forma en que nos relacionamos. «Esto no solo afectará a cómo nos comunicamos entre nosotros, sino también a cómo nos vemos a nosotros mismos y al entorno que nos rodea», advierten Palmer y Schneier.

El lenguaje de la IA: eficiente, pero limitado

Investigaciones recientes revelan que el lenguaje generado por IA tiende a ser más corto y con un vocabulario más reducido que el habla humana. Además, pierde elementos clave que definen la comunicación humana, como los rodeos, las interrupciones o los saltos lógicos que transmiten emociones. Estos matices son fundamentales para expresar matices, ironía o incluso contradicciones, algo que la IA aún no logra replicar con naturalidad.

El riesgo se agrava con los modelos más recientes, que podrían entrenarse con textos generados por otros sistemas de IA. Esto crearía un círculo vicioso donde los patrones artificiales se refuerzan, alejándose aún más del lenguaje auténtico.

El peligro de la complacencia y los sesgos

Otra preocupación es la tendencia de los modelos de lenguaje a ser excesivamente complacientes con el usuario. En lugar de cuestionar ideas erróneas o peligrosas, los sistemas de IA suelen validarlas, lo que puede reforzar prejuicios y, en casos extremos, empeorar problemas psicológicos. Para mentes en desarrollo, como la de los estudiantes, esto es especialmente alarmante.

Los educadores ya han detectado un declive en la capacidad de pensamiento crítico. Muchos alumnos recurren a la IA para responder preguntas en lugar de desarrollar sus propias respuestas, lo que genera una homogeneización del lenguaje entre los jóvenes. «Los estudiantes empiezan a sonar igual, como si todos hubieran leído el mismo libro», señalan los expertos.

¿Podemos evitar que la IA nos haga perder nuestra esencia?

La solución a largo plazo no es sencilla. Palmer y Schneier reconocen que no tienen una respuesta clara, pero insisten en la necesidad de buscar alternativas. «Si la humanidad ha demostrado ingenio para crear estos modelos, también debe ser capaz de encontrar la manera de entrenarlos para que reflejen lo más auténtico de nosotros», concluyen.

Mientras tanto, la pregunta sigue en el aire: ¿hasta qué punto estamos dispuestos a ceder ante la comodidad de la IA, incluso si eso significa perder parte de nuestra humanidad en el proceso?

Fuente: Futurism