Oakland (California).— Paul Boyer, psicoterapeuta de Kaiser Permanente, vive en primera línea la revolución de la inteligencia artificial (IA) en la sanidad. Sin embargo, su experiencia dista de ser entusiasta. La multinacional sanitaria ha implementado un nuevo software de notas médicas desarrollado por Abridge, pionero en IA sanitaria, diseñado para resumir las consultas con los pacientes a velocidad supersónica. Para muchos profesionales, esta tecnología alivia una de las mayores cargas de su trabajo: la burocracia y la documentación. Pero para Boyer y sus colegas, el sistema genera un nuevo problema: no es útil.
«No es especialmente bueno captando matices clínicos ni el tono emocional, esencial en salud mental», explica Boyer. Por ejemplo, en pacientes con episodios maníacos, el cómo se dice algo es más importante que el qué se dice, y el software falla en detectar estas señales. «Acabamos corrigiendo las notas generadas por la máquina», añade. La transcripción automatizada no es el futuro: ya es una realidad en hospitales de todo el país.
Un estudio publicado en abril en el Journal of the American Medical Association analizó cinco hospitales y reveló que los médicos que más usaban estos sistemas ahorraban más de media hora de trabajo diario al año de su instalación. Numerosas investigaciones basadas en entrevistas destacan la satisfacción generalizada entre los profesionales donde se ha desplegado. Sin embargo, como demuestra el caso de Boyer, persisten dudas sobre la calidad de estos sistemas.
Riesgos de la automatización en la salud
Mientras Boyer y su equipo dedican tiempo a corregir errores, los expertos en seguridad sanitaria alertan sobre un riesgo aún mayor: los médicos podrían no ser lo suficientemente diligentes a la hora de detectar fallos. Esto podría derivar en que futuros profesionales confíen en información incorrecta, con consecuencias potencialmente graves para los pacientes.
Abridge, la empresa desarrolladora, afirma que evalúa sus sistemas en todas las fases de implementación, incluyendo pruebas comparativas con versiones anteriores del software. «Tras el despliegue de un modelo, monitorizamos las ediciones realizadas por los clínicos, las valoraciones por estrellas y los comentarios en texto libre de los usuarios sobre la calidad de las notas», declaró Davis Liang, director de ciencia aplicada de la compañía, a KFF Health News.
Falta de regulación federal
El software de transcripción con IA es solo una de las muchas herramientas impulsadas por esta tecnología que están llegando al sector sanitario. Tanto los profesionales clínicos como los defensores de la seguridad del paciente coinciden en que las regulaciones actuales no están preparadas para evitar que estos sistemas omitan o distorsionen detalles cruciales de los historiales médicos, poniendo en riesgo la salud de las personas.
«Actualmente, no existe ningún mecanismo de protección a nivel federal para evaluar el software de transcripción», advierte Raj Ratwani, experto en factores humanos —cómo interactúan las personas con la tecnología— en MedStar Health, un gran sistema hospitalario en Maryland. Ratwani teme que las nuevas normas propuestas por la Oficina del Coordinador Nacional de Tecnología de la Información en Salud (ONC) —el organismo que regula los historiales electrónicos, el registro central de la atención al paciente— puedan debilitar los requisitos para que los registros médicos sean comprensibles, fáciles de usar y transparentes en el uso de IA.
Un registro incomprensible podría confundir a los clínicos y derivar en errores médicos. Desde la administración de Barack Obama, la oficina de Tecnología de la Información del Departamento de Salud y Servicios Humanos de EE.UU. ha promovido el «diseño centrado en el usuario», pero los expertos señalan que las propuestas actuales podrían socavar estos avances.
Mientras políticos como Donald Trump y Robert F. Kennedy Jr. abogan por relajar las regulaciones en este ámbito, la comunidad sanitaria y los defensores de la seguridad del paciente exigen un marco más robusto para garantizar que la IA en salud no comprometa la calidad asistencial.