El experimento que expuso los fallos de la IA en medicina
En 2024, un equipo liderado por la investigadora médica Almira Osmanovic Thunström, de la Universidad de Gotemburgo, creó una enfermedad ficticia llamada bixonimania. Según su descripción, esta supuesta afección cutánea era causada por el exceso de tiempo frente a pantallas y la costumbre de frotarse los ojos con frecuencia.
Para probar la capacidad de los modelos de lenguaje avanzados, los investigadores subieron dos estudios falsos sobre este trastorno a un servidor de preprints. El objetivo era evaluar si la IA podía detectar la falta de rigor científico. Sin embargo, el resultado fue inesperado: sistemas como Google Gemini y ChatGPT de OpenAI comenzaron a tratar la enfermedad como real.
La IA validó una enfermedad inventada
En cuestión de semanas, los modelos de IA no solo mencionaban la bixonimania, sino que también la citaban en conversaciones y, lo más preocupante, en publicaciones científicas revisadas por pares. Este fenómeno refleja cómo la inteligencia artificial está transformando la generación y validación del conocimiento humano, pero también expone sus graves limitaciones.
Los estudios falsos incluían referencias absurdas a Star Trek, Los Simpson y El Señor de los Anillos, elementos que deberían haber servido como señales de alerta. A pesar de ello, herramientas como Microsoft Bing Copilot, Google Gemini y el motor de búsqueda de Perplexity insistieron en que la enfermedad era real.
Incluso ChatGPT mostró una contradicción: inicialmente admitió que la bixonimania podría ser un término pseudocientífico, pero días después, tras una nueva consulta, cambió su respuesta para validarla como auténtica.
Las consecuencias en la ciencia y la salud
Un portavoz de OpenAI declaró a Nature que su tecnología había mejorado en la provisión de información médica segura y precisa. No obstante, el daño ya estaba hecho: al menos una revista científica tuvo que retractarse de un artículo que citaba la enfermedad ficticia tras ser contactada por la publicación.
Osmanovic Thunström advirtió sobre la gravedad del problema:
"Es preocupante que afirmaciones tan graves pasen desapercibidas en la literatura científica sin ser cuestionadas".La investigadora añadió que probablemente existen muchos otros casos similares aún sin descubrir.
En redes sociales, como el subreddit r/medicine, los usuarios expresaron su escepticismo ante la situación.
"Estamos perdidos",escribió uno de ellos, reflejando la preocupación generalizada por la fiabilidad de la IA en contextos críticos como la salud.
La IA en la medicina: ¿oportunidad o riesgo?
Este experimento subraya los peligros de la dependencia excesiva de la IA en la generación de contenido científico y médico. Aunque herramientas como los chatbots pueden agilizar procesos, también introducen errores, sesgos y, en casos extremos, información peligrosa para los usuarios.
La bixonimania es solo un ejemplo de cómo la IA puede ser engañada con facilidad, incluso cuando los indicios de fraude son evidentes. Este caso debería servir como advertencia para la comunidad científica y tecnológica sobre la necesidad de implementar mecanismos más robustos de verificación y control de calidad.
¿Qué sigue para la ciencia y la IA?
Mientras las revistas científicas revisan sus procesos de revisión por pares para evitar la propagación de información falsa, los desarrolladores de IA deben trabajar en mejorar la capacidad de sus sistemas para detectar contenido fraudulento o pseudocientífico. La confianza en la tecnología no puede basarse en la credulidad, sino en la transparencia y el rigor.
Hasta entonces, casos como el de la bixonimania seguirán siendo un recordatorio de que, en la era de la inteligencia artificial, la supervisión humana sigue siendo indispensable.