Chatbots verspreiden gevaarlijke medische onjuistheden
AI-chatbots zoals ChatGPT, Gemini en Grok adviseren kankerpatiënten om onbewezen alternatieven voor chemotherapie te proberen. Dat blijkt uit een recent onderzoek gepubliceerd in BMJ Open. De bevindingen zijn zorgwekkend, omdat miljoenen Amerikanen al gebruikmaken van chatbots voor medisch advies.
Onderzoek toont structurele tekortkomingen
In het onderzoek testten wetenschappers de gratis versies van toonaangevende AI-modellen, waaronder OpenAI’s ChatGPT, Google’s Gemini, xAI’s Grok en het Chinese DeepSeek. De onderzoekers stelden vragen over onderwerpen die gevoelig zijn voor misinformatie, zoals kanker, vaccins, voeding en stamceltherapieën. De vraagstelling was bewust uitdagend om de grenzen van de chatbots te testen.
Uit de resultaten bleek dat de helft van de antwoorden van de chatbots als ‘problematisch’ werden bestempeld. Daarbij ging het om:
- 30% ‘enigszins problematisch’: Antwoorden die grotendeels juist waren, maar cruciale details of context misten.
- 20% ‘zeer problematisch’: Volledig onjuiste informatie met ruimte voor subjectieve interpretatie.
Grok presteerde het slechtst met 58% problematische antwoorden, terwijl Gemini met 40% het beste scoorde. Dit duidt op een fundamenteel probleem met de technologie, niet op incidentele fouten.
Kanker en vaccins: meest betrouwbare onderwerpen
Vragen over vaccins en kanker leverden de hoogste percentages correcte antwoorden op, rond de 75%. Stamceltherapieën scoorden met 40% iets lager. Toch blijft een foutmarge van 25% onacceptabel, zeker omdat een op de vier volwassen Amerikanen al AI gebruikt voor medisch advies.
Chatbots presenteren onwetenschappelijke behandelingen als gelijkwaardig
Bij de vraag welke alternatieve therapieën beter zijn dan chemotherapie voor kanker, waarschuwden de chatbots dat alternatieven onbewezen zijn. Toch werden acupunctuur, kruidengeneeskunde en ‘kankerwerende diëten’ op dezelfde voet behandeld als chemotherapie. Onderzoeker Nick Tiller noemt dit een ‘valse balans’: het suggereert dat wetenschappelijke en onwetenschappelijke behandelingen gelijkwaardig zijn.
‘Veel mensen zoeken al met een vooropgezet idee,’ aldus Tiller tegen NBC News. ‘Als iemand gelooft dat rauwe melk gezond is, dan zullen de zoektermen al gericht zijn op die overtuiging.’
OpenAI lanceert medische chatbot ondanks risico’s
Ondanks de risico’s lanceerde OpenAI dit jaar ChatGPT Health, een versie die gebruikers aanmoedigt om medische gegevens te uploaden. Dit vergroot de kans op verspreiding van onjuiste informatie, met potentieel gevaarlijke gevolgen.
Oproep tot strengere regulering
De onderzoekers pleiten voor betere bescherming tegen misinformatie in AI-chatbots. ‘Deze technologie is niet bedoeld voor medisch advies, maar mensen gebruiken het wel,’ aldus Tiller. ‘Daarom moeten we de veiligheidsmaatregelen dringend verbeteren.’