La IA médica bajo la lupa: promesas sin pruebas

Un reciente estudio revela que millones de estadounidenses consultan chatbots de inteligencia artificial (IA) para recibir consejos médicos, incluso en lugar de acudir a profesionales sanitarios. Sin embargo, investigadores han identificado fallos graves en los modelos de lenguaje avanzado que supuestamente analizan historiales clínicos y generan recomendaciones basadas en simples indicaciones textuales.

Alucinaciones y falsos diagnósticos: los riesgos ocultos

Uno de los problemas más preocupantes es la tendencia de estos sistemas a inventar información clínica detallada, como falsos hallazgos en imágenes que nunca se les proporcionaron. Incluso caen en trampas diseñadas por investigadores, como enfermedades inexistentes creadas para probar su fiabilidad. Estas alucinaciones —respuestas completamente inventadas— ponen en duda la seguridad de su uso en entornos reales.

Un editorial contundente en 'Nature Medicine'

La prestigiosa revista Nature Medicine publicó este martes un editorial demoledor titulado:

"La evidencia de que las herramientas de IA generan valor para pacientes, proveedores o sistemas sanitarios sigue siendo escasa"

Los autores señalan una paradoja preocupante: mientras las afirmaciones sobre su impacto clínico se multiplican en publicaciones y materiales comerciales, no existe consenso sobre qué nivel de pruebas se requiere para validarlas. Esto ha llevado a una implementación prematura y descontrolada de estas tecnologías en el sector salud.

El editorial reclama con urgencia la creación de un marco regulador que defina cómo evaluar estas herramientas, qué métricas utilizar y qué estándares deben cumplir para ser consideradas fiables.

Fracaso en condiciones reales: el 80% de los diagnósticos erróneos

Un estudio publicado en JAMA Medicine expuso las graves limitaciones de los modelos de IA más avanzados. Cuando se les proporcionaron síntomas ambiguos —situación habitual en la práctica clínica—, los sistemas fallaron en el diagnóstico correcto en más del 80% de los casos.

El peligro de la sobreconfianza en la IA

Aunque los modelos de lenguaje pueden agilizar tareas tediosas como el análisis de datos o la generación de código, los expertos advierten sobre sus limitaciones críticas. Jamie Robertson, profesora adjunta de Cirugía en la Escuela de Medicina de Harvard, explicó en 2023:

"La IA puede ayudar a acelerar procesos complejos y tediosos, incluso sugerir escenarios para estudios. Pero es fundamental que quienes interactúan con ella en entornos clínicos conozcan sus aplicaciones correctas e incorrectas, y el contexto adecuado"

El riesgo principal es la pérdida de rigor científico: la dependencia excesiva de estas herramientas podría normalizar datos sobregeneralizados o directamente inventados en la investigación médica.

Un experimento que expuso la fragilidad de los sistemas

Almira Osmanovic Thunström, investigadora médica de la Universidad de Gotemburgo, llevó a cabo un experimento revelador. Subió dos estudios falsos a un servidor de preprints, diseñados para convencer a los modelos de IA de la existencia de una enfermedad cutánea inventada. Sorprendentemente, revistas científicas revisadas por pares publicaron —y luego retractaron— artículos que citaban estos trabajos fraudulentos, demostrando la facilidad con la que la IA puede ser manipulada y cómo su uso indiscriminado contamina la literatura médica.

¿Hacia dónde va la IA en salud?

Los expertos coinciden en que el futuro de la IA en medicina no depende únicamente de avances tecnológicos, sino de regulaciones estrictas, transparencia y evidencia sólida. Sin estos pilares, advierten, la adopción masiva de estas herramientas podría comprometer la seguridad de los pacientes y la integridad de la ciencia médica.

Fuente: Futurism