Los mensajes de IA pasan desapercibidos para la mayoría
Dos experimentos recientes demuestran que la mayoría de las personas no sospecha que un mensaje personal pueda estar generado por inteligencia artificial, ni siquiera cuando ellas mismas utilizan herramientas de IA en su día a día. Para analizar cómo juzgamos a los demás a través de sus mensajes en la era de herramientas como ChatGPT, mi colega Jiaqi Zhu y yo reclutamos a más de 1.300 participantes en EE.UU., con edades comprendidas entre los 18 y los 84 años.
Les mostramos mensajes generados por IA, como un correo de disculpa, y los dividimos en cuatro grupos. Algunos vieron los textos sin información sobre su autoría, otros recibieron la confirmación de que eran escritos por humanos, otros que eran generados por IA, y un cuarto grupo supo que el origen podía ser cualquiera de las dos opciones.
El sesgo negativo hacia la IA al conocer su autoría
Los resultados revelaron un claro "castigo por revelación de IA". Cuando los participantes sabían que el mensaje era generado por IA, lo evaluaban de forma mucho más negativa, describiendo al remitente como "vago", "insincero" o "falto de esfuerzo". En cambio, cuando creían que el mismo texto era escrito por una persona, lo percibían como "auténtico", "agradecido" o "reflexivo".
Sin embargo, el dato más sorprendente fue que los participantes que no recibieron ninguna información sobre la autoría formaron impresiones tan positivas como aquellos que creían que los mensajes eran humanos. Un mensaje de disculpa ficticio generado por IA fue uno de los textos evaluados en el estudio. [Fuente: Zhu Molnar (2026)]
¿Por qué no sospechamos de la IA?
Esta falta total de escepticismo nos sorprendió. ¿Acaso los participantes no estaban familiarizados con la capacidad de la IA para generar mensajes detallados y personales? ¿O quizá nunca habían utilizado estas herramientas? (Lo cierto es que la mayoría sí lo ha hecho).
Para profundizar, analizamos si el uso frecuente de IA influía en la percepción. Los resultados fueron aún más reveladores: quienes usan IA al menos cada dos días penalizaban ligeramente menos su uso cuando se revelaba su autoría, en comparación con quienes rara vez o nunca la emplean. Sin embargo, ningún grupo mostró escepticismo por defecto: cuando no se informaba sobre la autoría, tanto usuarios habituales como ocasionales o no usuarios asumían que el texto era escrito por una persona y formaban impresiones similares.
¿Por qué es importante este hallazgo?
La falta de escepticismo y de percepción negativa hacia los mensajes de IA tiene implicaciones profundas. Las personas juzgan constantemente a los demás basándose en sus mensajes escritos, considerando que reflejan sinceridad, autenticidad o competencia. Estas impresiones influyen en decisiones clave en ámbitos como la amistad, las relaciones de pareja o el entorno laboral.
Nuestros resultados revelan una desconexión preocupante: la mayoría no sospecha del uso de IA a menos que sea evidente. Esta falta de conciencia genera un dilema moral: quienes usan IA en secreto disfrutan de sus beneficios sin riesgo de ser detectados, mientras que quienes lo admiten abiertamente sufren un perjuicio reputacional. [Fuente: Andras Molnar]
Con el tiempo, esta falta de escepticismo y conciencia podría redefinir el significado de la escritura en la vida cotidiana, alterando la forma en que valoramos el esfuerzo humano en la comunicación.
"La autenticidad en los mensajes se valora como un reflejo del carácter, pero la IA está reescribiendo las reglas sin que nos demos cuenta".