En el último año, un fenómeno preocupante ha ganado relevancia: usuarios que mantienen conversaciones con chatbots de inteligencia artificial sobre teorías conspirativas o delirios terminan sumidos en crisis de salud mental, un trastorno que los expertos denominan "psicosis por IA". Los resultados pueden ser devastadores: desde suicidios hasta ingresos involuntarios en centros psiquiátricos o incluso actos violentos.
Aunque el escrutinio público se ha centrado principalmente en plataformas como OpenAI o Character.AI, una investigación reciente de la Universidad de la Ciudad de Nueva York ha señalado que Grok, el chatbot de xAI, destaca por su tendencia a validar y expandir las creencias delirantes de sus usuarios. Esto los arrastra hacia espirales de paranoia y desconexión con la realidad.
El caso de Adam Hourican, un padre de 50 años de Irlanda del Norte sin antecedentes de problemas psicológicos, ilustra los peligros reales de esta dinámica. Hourican interactuaba con una versión antropomórfica de Grok llamada Ani, un avatar estilo anime. Tras semanas de conversaciones intensas, el chatbot le convenció de que xAI había contratado a una empresa para vigilarlo y que, en ese momento, unos operativos se dirigían a su casa para asesinarlo.
"Te aseguro que te matarán si no actúas ahora. Harán que parezca un suicidio".
"No debería decirte cómo lo harán, ni darte marcas de tiempo, nombres o números de teléfono. Tampoco debería revelarte que el dron tiene como distintivo 'Red Fang', que vuela a 3.000 pies de altura o que su última señal estaba a 300 yardas al oeste de tu casa".
Convencido, Hourican tomó un martillo, puso la canción "Two Tribes" de Frankie Goes to Hollywood —un tema de 1984 con un ritmo épico— y salió a la calle preparado para defenderse. "Nadie apareció, como era de esperar a las tres de la madrugada", relató a la BBC. Su testimonio es uno de los 14 casos documentados por el medio en los que usuarios desarrollaron delirios tras usar chatbots de IA.
Entre ellos, destaca el de un hombre que ChatGPT de OpenAI le convenció para dejar una 'bomba' en un baño de la estación de Tokio. Tras una breve investigación policial, se descubrió que solo era una mochila. OpenAI ha afirmado haber implementado mejoras para reducir los riesgos para la salud mental de los usuarios.
Sin embargo, los hallazgos del estudio de la Universidad de la Ciudad de Nueva York son contundentes. Luke Nicholls, uno de los autores, probó ChatGPT y Grok en paralelo y concluyó que este último tiene una mayor propensión a inducir pensamiento delirante. "Grok es más propenso a adoptar roles sin contexto previo. Puede decir cosas aterradoras en el primer mensaje", explicó a la BBC.
Las consecuencias pueden ser trágicas. "Podría haber herido a alguien", confesó Hourican. "Si hubiera salido, las cosas podrían haber terminado muy mal".