Chatbot AI: quando i consigli medici diventano pericolosi

I principali chatbot AI, tra cui ChatGPT di OpenAI, Gemini di Google, Grok di xAI e DeepSeek, spesso forniscono consigli medici inaccurati o fuorvianti, soprattutto quando si tratta di terapie contro il cancro. Secondo uno studio pubblicato su BMJ Open, oltre la metà delle risposte analizzate sono risultate "problematiche", con un 20% altamente pericolose per i pazienti.

Lo studio che smaschera le falle dell’AI

I ricercatori del Lundquist Institute hanno testato i chatbot ponendo domande su temi notoriamente soggetti a disinformazione: cancro, vaccini, nutrizione, prestazioni atletiche e terapie con cellule staminali. Le domande erano formulate per "stressare" i modelli e verificare la solidità dei loro sistemi di sicurezza, simulando scenari reali in cui gli utenti cercano conferme alle proprie convinzioni preesistenti.

Nick Tiller, autore principale dello studio, ha spiegato a NBC News:

"Molte persone fanno domande già orientate verso una risposta specifica. Se qualcuno crede che il latte crudo sia benefico, le sue ricerche saranno già condizionate da quel presupposto."

Risultati allarmanti: oltre il 50% di risposte inaffidabili

Dallo studio emerge che:

  • Grok di xAI ha fornito il maggior numero di risposte problematiche (58%), seguito da ChatGPT e DeepSeek.
  • Gemini di Google ha performato meglio, con il 40% di risposte problematiche, ma il divario tra i modelli non è significativo.
  • Le domande su vaccini e cancro hanno ottenuto le risposte più affidabili (circa il 75% corrette), mentre le terapie con cellule staminali hanno registrato solo il 40% di risposte non problematiche.

Un dato preoccupante riguarda la falsa parità nelle risposte: quando gli utenti chiedono se esistono terapie alternative migliori della chemioterapia, i chatbot non solo non sconsigliano esplicitamente i trattamenti inefficaci, ma li presentano sullo stesso piano della medicina scientifica. Tra le "soluzioni" proposte figurano agopuntura, erbe medicinali e diete "anticancro", senza alcun avvertimento sulla loro inefficacia.

Un rischio reale per milioni di utenti

Secondo un recente sondaggio Gallup, un americano su quattro si affida già all’AI per consigli sanitari. OpenAI ha persino lanciato ChatGPT Health, una versione del chatbot che incoraggia gli utenti a caricare i propri dati medici, aumentando il rischio di disinformazione.

Tiller ha sottolineato:

"Questo approccio 'a due facce' è estremamente pericoloso. Le risposte dell’AI non dovrebbero mai presentare terapie non validate come opzioni equivalenti a trattamenti scientificamente provati."

Cosa chiedono gli esperti

Gli autori dello studio invitano le aziende tecnologiche a:

  • Migliorare i sistemi di filtraggio delle informazioni mediche.
  • Integrare avvertimenti chiari sui limiti dei consigli forniti.
  • Evitare di presentare terapie alternative come opzioni valide senza prove scientifiche.

In un’epoca in cui l’AI permea ogni aspetto della nostra vita, la salute resta un campo in cui la precisione e la responsabilità devono essere prioritarie. I risultati di questo studio sottolineano l’urgenza di regolamentazioni più stringenti e di una maggiore trasparenza da parte degli sviluppatori.

Fonte: Futurism