L’intelligenza artificiale sta rivoluzionando la medicina, ma non sempre in modo sicuro. Secondo un recente rapporto dell’ufficio del Revisore Generale dell’Ontario, i software di trascrizione automatica delle visite mediche (noti come AI medical scribes) approvati dal governo provinciale contengono gravi difetti. Questi sistemi, progettati per aiutare i medici oberati di lavoro, generano referti con informazioni errate, incomplete o addirittura inventate, mettendo a rischio la salute dei pazienti.

I risultati dell’audit: errori diffusi e rischi concreti

Nel rapporto intitolato Use of Artificial Intelligence in the Ontario Government, il Revisore Generale ha analizzato le prestazioni di 20 fornitori di AI scribes, tutti già approvati e pre-qualificati dal governo dell’Ontario per l’acquisto da parte delle strutture sanitarie. I test hanno coinvolto due simulazioni di conversazioni tra paziente e medico, ma i risultati sono allarmanti:

  • 9 fornitori su 20 hanno inventato informazioni inesistenti, come referti di analisi del sangue o terapie mai prescritte;
  • 12 fornitori hanno trascritto in modo errato dati fondamentali, come i nomi dei farmaci;
  • 17 fornitori hanno omesso dettagli cruciali, soprattutto riguardo a problemi di salute mentale discussi durante le visite.

Esempi concreti di errori pericolosi

Il rapporto cita casi specifici che dimostrano come questi errori possano avere ripercussioni dirette sulla cura dei pazienti. Tra gli esempi più gravi:

  • Un AI scribe ha inventato un referto per una terapia mai prescritta, che avrebbe potuto portare a un trattamento inappropriato;
  • Un altro sistema ha sbagliato il nome di un farmaco, rischiando di causare errori di somministrazione;
  • In diversi casi, sono stati omessi dettagli su diagnosi di salute mentale, compromettendo la continuità delle cure.

«Questi errori potrebbero portare a piani terapeutici inadeguati o dannosi, con un impatto negativo diretto sulla salute dei pazienti»,

ha dichiarato il Revisore Generale dell’Ontario nel rapporto.

Le conseguenze per medici e pazienti

I medici che utilizzano questi strumenti si trovano a dover correggere manualmente i referti generati dall’AI, perdendo tempo prezioso e aumentando il rischio di errori umani. Per i pazienti, invece, le conseguenze possono essere ancora più gravi: diagnosi errate, terapie inappropriate o ritardi nelle cure. Il rapporto sottolinea che, nonostante i vantaggi in termini di efficienza, l’affidabilità di questi sistemi rimane un problema irrisolto.

Cosa chiedono gli esperti

Gli autori del rapporto hanno formulato una serie di raccomandazioni per il governo dell’Ontario, tra cui:

  • Un monitoraggio più rigoroso dei fornitori di AI scribes prima della loro approvazione;
  • L’introduzione di meccanismi di verifica automatica per ridurre gli errori;
  • Una formazione specifica per i medici sull’uso corretto di questi strumenti, per minimizzare i rischi.

Il governo provinciale ha dichiarato di stare valutando le raccomandazioni, ma non ha ancora fornito dettagli su eventuali azioni concrete. Nel frattempo, la sicurezza dei pazienti rimane una priorità assoluta.