Errores generalizados en los resúmenes de IA para médicos
La creciente carga laboral de los profesionales sanitarios ha impulsado el uso de asistentes de IA, conocidos como scribes médicos, para automatizar la transcripción de consultas, diagnósticos y decisiones clínicas. Sin embargo, un reciente informe de la Auditoría General de Ontario ha destapado graves fallos en estos sistemas, que podrían comprometer la seguridad de los pacientes.
Hallazgos preocupantes en el informe oficial
Según el documento Uso de la Inteligencia Artificial en el Gobierno de Ontario, los sistemas de IA evaluados generaban información incorrecta, incompleta o inventada, lo que podría derivar en "planes de tratamiento inadecuados o perjudiciales" y afectar negativamente a los resultados clínicos.
El análisis incluyó pruebas con 20 proveedores de scribes de IA, todos ellos aprobados y precalificados por el gobierno provincial para su uso en centros sanitarios. Los resultados fueron alarmantes:
- 9 de los 20 sistemas inventaron información inexistente, como derivaciones a pruebas o terapias que nunca se mencionaron.
- 12 sistemas transcribieron datos de manera incorrecta, incluyendo nombres de medicamentos.
- 17 sistemas omitieron detalles clave sobre problemas de salud mental discutidos en las consultas simuladas.
Ejemplos concretos de fallos peligrosos
El informe detalla casos concretos que ilustran los riesgos de estos errores:
- Un sistema inventó una derivación a un especialista que nunca fue mencionada en la consulta.
- Otro transcribió incorrectamente el nombre de un fármaco, lo que podría llevar a una medicación equivocada.
- Varios sistemas ignoraron aspectos críticos de problemas de salud mental, como tendencias suicidas o trastornos graves.
"Estos errores no son meras imprecisiones; pueden tener consecuencias graves en la atención al paciente y en su seguridad", declaró el auditor general de Ontario.
Recomendaciones y medidas urgentes
Ante estos hallazgos, la Auditoría General ha instado al gobierno provincial a:
- Revisar los criterios de aprobación de los sistemas de IA para garantizar su fiabilidad.
- Implementar pruebas de validación más estrictas antes de su uso en entornos reales.
- Establecer mecanismos de supervisión continua para detectar y corregir errores en tiempo real.
Además, se recomienda a los centros sanitarios que verifiquen manualmente los resúmenes generados por IA hasta que se resuelvan estos problemas.
Reacciones del sector sanitario
La noticia ha generado preocupación entre médicos y pacientes. Muchos profesionales, aunque reconocen el potencial de la IA para aliviar su carga administrativa, exigen mayor transparencia y controles de calidad antes de confiar en estos sistemas para decisiones clínicas.
"La tecnología debe ser una herramienta de apoyo, no un sustituto de la supervisión humana", afirmó un portavoz de la Asociación Médica de Ontario.