Un esperimento per smascherare i limiti dell'IA

Nel 2024, un team di ricercatori guidato da Almira Osmanovic Thunström, medico presso l'Università di Göteborg, ha deciso di testare l'affidabilità dei modelli di intelligenza artificiale creando una malattia completamente inventata: la bixonimania.

Secondo la descrizione, questa presunta condizione dermatologica sarebbe causata da un uso eccessivo di schermi e dallo sfregamento frequente degli occhi. Per verificare se l'IA avrebbe accettato questa fake news come reale, i ricercatori hanno caricato due studi fittizi su un server di preprint, entrambi poi rimossi.

Il risultato? In poche settimane, modelli avanzati come Google Gemini e ChatGPT di OpenAI hanno iniziato a trattare la bixonimania come una malattia reale. Peggio ancora, alcuni articoli scientifici peer-reviewed hanno iniziato a citare questi studi fasulli come fonti attendibili.

L'IA diffonde bufale: un problema crescente

Questo esperimento evidenzia una tendenza preoccupante: l'IA sta trasformando il modo in cui vengono prodotte e diffuse le informazioni scientifiche. Secondo Nature, una parte significativa degli articoli indicizzati ogni anno potrebbe fare affidamento sull'intelligenza artificiale, mettendo in discussione la loro validità e l'affidabilità del processo di revisione paritaria.

Ma il problema non si limita alla scienza. I chatbot di intelligenza artificiale, infatti, continuano a fornire consigli medici potenzialmente pericolosi a utenti ignari. Nonostante gli studi fittizi contenessero riferimenti evidenti a Star Trek, The Simpsons e Il Signore degli Anelli — chiari segnali di una bufala — modelli come Microsoft Bing Copilot, Google Gemini e Perplexity hanno comunque accettato la bixonimania come reale.

ChatGPT, inizialmente scettico, ha cambiato idea dopo poche domande, arrivando a definire la malattia come reale. Un portavoce di OpenAI ha dichiarato a Nature che la tecnologia sta migliorando nella fornitura di informazioni mediche sicure e accurate.

Le conseguenze e le preoccupazioni degli esperti

Ora che la bufala è stata svelata, spetta alle riviste scientifiche correggere gli errori. Dopo che Nature ha segnalato la presenza di riferimenti alla bixonimania in alcuni articoli, una rivista ha pubblicato una rettifica, ammettendo la presenza di «tre riferimenti irrilevanti, tra cui uno a una malattia fittizia».

«È preoccupante vedere affermazioni così rilevanti passare inosservate o non essere contestate nel processo di revisione paritaria. Credo che ci siano molti altri problemi ancora da scoprire».

Almira Osmanovic Thunström

La comunità scientifica ha reagito con scetticismo. Su Reddit, un utente del subreddit r/medicine ha commentato con un lapidario: «Siamo fritti».

Un campanello d'allarme per l'affidabilità dell'IA

Questo episodio solleva domande critiche sul ruolo dell'intelligenza artificiale nella diffusione delle informazioni. Se anche una malattia inventata può essere accettata come reale, quali altre bufale potrebbero infiltrarsi nella letteratura scientifica o nei consigli medici forniti ai pazienti?

Mentre le aziende tecnologiche lavorano per migliorare la precisione dei loro modelli, resta fondamentale un controllo umano rigoroso per garantire l'affidabilità delle informazioni, soprattutto in ambiti delicati come la salute.

Fonte: Futurism