Lo scorso mese, la Commissione per le Licenze Mediche dello Utah ha richiesto la sospensione immediata di un programma pilota avviato in collaborazione con l’azienda di intelligenza artificiale Doctronic.
Il progetto prevedeva l’utilizzo di un chatbot per valutare i pazienti e raccomandare il rinnovo automatico di prescrizioni per quasi 200 farmaci destinati a malattie croniche. Inizialmente, il sistema avrebbe dovuto essere affiancato da una revisione medica, ma la Commissione ha scoperto che questa fase era stata eliminata prima ancora di essere implementata.
In una dichiarazione ufficiale, la Commissione ha sottolineato che la mancanza di supervisione clinica diretta “potrebbe mettere a rischio la sicurezza dei cittadini dello Utah”. La decisione di sospendere il programma è stata presa per garantire che vengano rispettati gli standard di sicurezza e affidabilità richiesti in ambito sanitario.
Un framework per regolamentare i medici AI
Il caso dello Utah solleva una questione più ampia: come regolamentare l’uso dell’intelligenza artificiale in medicina? Attualmente, non esiste un quadro normativo chiaro che disciplini l’autorizzazione e il controllo dei sistemi AI in ambito sanitario. Tuttavia, alcuni esperti propongono un modello basato su tre pilastri fondamentali:
- Certificazione obbligatoria: I sistemi AI devono essere sottoposti a test rigorosi e ottenere una certificazione ufficiale prima di poter essere utilizzati in contesti clinici.
- Supervisione umana costante: Anche se un chatbot può analizzare dati e suggerire diagnosi, la decisione finale deve sempre essere presa da un medico umano.
- Trasparenza e tracciabilità: Tutti i processi decisionali dell’AI devono essere documentati e accessibili per eventuali revisioni o audit.
«L’intelligenza artificiale può essere uno strumento straordinario per la medicina, ma deve essere utilizzata in modo responsabile e controllato. Senza regolamentazioni adeguate, rischiamo di compromettere la fiducia dei pazienti e la sicurezza dei trattamenti.»
— Esperto di sanità digitale, Università di Harvard
Negli Stati Uniti, alcuni stati stanno già muovendosi verso una regolamentazione più rigorosa. Ad esempio, la California ha recentemente introdotto una legge che richiede la supervisione di un medico per qualsiasi sistema AI utilizzato nella diagnosi o nel trattamento di pazienti. Anche l’Unione Europea sta lavorando a una normativa specifica per l’AI in ambito sanitario, che dovrebbe entrare in vigore entro il 2025.
Le sfide future
Nonostante i progressi, rimangono diverse sfide da affrontare. Una delle principali riguarda la responsabilità legale: in caso di errore da parte di un sistema AI, chi è responsabile? Il medico, l’ospedale, l’azienda sviluppatrice o il paziente stesso? Attualmente, la giurisprudenza in questo settore è ancora in fase di definizione.
Un altro ostacolo è rappresentato dalla diffidenza dei pazienti. Molti potrebbero essere riluttanti ad affidarsi a un sistema automatizzato per decisioni mediche critiche, preferendo il giudizio umano. Per superare questa barriera, sarà necessario non solo garantire la sicurezza dei sistemi AI, ma anche educare il pubblico sui loro vantaggi e limiti.
In conclusione, il caso dello Utah rappresenta un campanello d’allarme per l’intero settore sanitario. L’intelligenza artificiale offre enormi potenzialità, ma il suo utilizzo deve essere accompagnato da un quadro normativo solido e da una supervisione costante. Solo così sarà possibile garantire che la tecnologia sia al servizio dei pazienti, senza compromettere la loro sicurezza.