L’intelligenza artificiale di OpenAI sta entrando sempre più nel settore sanitario, ma finora le sue applicazioni sono state limitate a contesti non regolamentati. A gennaio, l’azienda ha lanciato ChatGPT Health, una versione del suo chatbot rivolta ai consumatori, seguita da ChatGPT for Healthcare per gli ospedali e ChatGPT for Clinicians per i professionisti sanitari.
Con il recente lancio di quest’ultima versione, OpenAI ha anche pubblicato una serie di raccomandazioni politiche che, secondo l’azienda, potrebbero rappresentare una roadmap per trasformare il sistema sanitario attraverso l’IA. Tuttavia, come sottolineato da alcuni esperti interpellati da STAT, queste proposte, pur essendo in parte ragionevoli, sembrano privilegiare in modo sproporzionato gli interessi commerciali dell’azienda.
«Vogliono avere la botte piena e la moglie ubriaca», ha dichiarato David Blumenthal, ex coordinatore nazionale per l’informatica sanitaria e professore di politica sanitaria alla Harvard University. «Da un lato cercano di posizionarsi come attori responsabili nel dibattito attuale, dall’altro vogliono mantenere il mercato aperto ai loro prodotti».
Le linee guida di OpenAI, che mirano a definire un quadro normativo per l’uso dell’IA in sanità, sono state oggetto di analisi da parte di esperti del settore. Secondo alcuni, le proposte potrebbero accelerare l’innovazione tecnologica, ma sollevano anche preoccupazioni riguardo alla trasparenza e alla gestione dei dati sensibili.
Il dibattito su come regolamentare l’IA in ambito sanitario è ormai al centro dell’attenzione. Mentre alcune aziende tecnologiche spingono per un approccio più flessibile, le istituzioni sanitarie e i regolatori chiedono maggiore controllo per garantire la sicurezza dei pazienti e la privacy dei dati.
OpenAI, con le sue recenti iniziative, sembra voler giocare un ruolo chiave in questo scenario, ma la domanda rimane: riuscirà a bilanciare gli interessi commerciali con le esigenze del sistema sanitario?