Pubblicare un articolo su Science rappresenta un traguardo fondamentale per molti ricercatori. Per Adam Rodman, internista e studioso di intelligenza artificiale clinica, questo traguardo ha assunto anche un significato diverso: una fonte di preoccupazione.

Giovedì, Rodman e il suo team hanno reso pubblico uno studio che raccoglie una serie di esperimenti, tra cui uno basato su dati reali provenienti da un pronto soccorso di Boston. I risultati dimostrano che un grande modello linguistico sviluppato da OpenAI può superare i medici in valutazioni di diagnosi e ragionamento clinico basate su casi specifici.

Per Rodman, co-autore senior dello studio, questo lavoro rappresenta una risposta a una sfida lanciata nel 1959 su Science. In quell’articolo, infatti, veniva descritto come verificare se un sistema di supporto alle decisioni cliniche fosse in grado di diagnosticare meglio degli esseri umani. «Ora sappiamo che può farlo», ha dichiarato Rodman.

I limiti dell’IA nella pratica clinica reale

Nonostante i risultati promettenti, l’entusiasmo per gli strumenti di intelligenza artificiale generativa come i chatbot sta crescendo sia tra i pazienti che tra i professionisti sanitari. Tuttavia, Rodman sottolinea un rischio concreto: gli esperimenti scientifici, basati su casi simulati o storici, potrebbero essere interpretati erroneamente come prova della sicurezza e dell’efficacia dell’IA nell’assistenza ai pazienti reali.

«Questi modelli funzionano bene in ambienti controllati, ma la realtà clinica è molto più complessa», spiega Rodman. «Un errore in un contesto reale potrebbe avere conseguenze gravi».

Il futuro dell’IA in medicina: tra innovazione e responsabilità

Lo studio solleva questioni cruciali sul ruolo dell’intelligenza artificiale nella sanità. Da un lato, l’IA offre opportunità senza precedenti per migliorare la diagnosi precoce e personalizzare le cure. Dall’altro, la sua integrazione richiede un’attenta valutazione dei rischi e una regolamentazione rigorosa.

Gli autori dello studio sottolineano la necessità di ulteriori ricerche per validare l’efficacia dell’IA in scenari reali, oltre a un quadro normativo che garantisca trasparenza e sicurezza. «Non possiamo permetterci di affidarci ciecamente a questi strumenti», afferma Rodman. «La salute dei pazienti deve essere sempre la priorità assoluta».