AI als vervanger van de dokter: een gevaarlijke trend

Moderne AI-chatbots zoals Google’s AI of ChatGPT zijn nog steeds onbetrouwbaar als het gaat om medisch advies, ondanks verbeteringen. Een recent onderzoek in JAMA Network Open toont aan dat zelfs geavanceerde taalmodellen (LLMs) falen bij het stellen van diagnoses.

Falen in 80% van de gevallen

Onderzoekers testten 21 geavanceerde taalmodellen door ze realistische medische symptomen voor te leggen. Bij onduidelijke klachten die op meerdere aandoeningen konden wijzen, gaf AI in meer dan 80% van de gevallen een verkeerde diagnose. Zelfs bij duidelijker gevallen met lichamelijke onderzoeksresultaten en labuitslagen faalden de modellen nog in 40% van de gevallen.

Een opvallend probleem is dat AI-modellen te snel tot een conclusie komen. In plaats van verschillende mogelijkheden te overwegen, kiezen ze vaak voor één antwoord – met zwakke prestaties als gevolg. "Ondanks voortdurende verbeteringen zijn kant-en-klare taalmodellen nog niet klaar voor klinisch gebruik zonder toezicht," aldus Marc Succi, hoofdauteur van het onderzoek en associate chair van Massachusetts General Hospital.

Gevaarlijke gevolgen in de praktijk

Als mensen AI raadplegen voor medische klachten, zoals een huiduitslag of een plotselinge hoest, kunnen ze misleidende of zelfs gevaarlijke adviezen krijgen. Dit kan ernstige gevolgen hebben, vooral als mensen afzien van een bezoek aan een echte arts.

66 miljoen Amerikanen vertrouwen op AI voor medisch advies

Uit een recent onderzoek van het West Health-Gallup Center on Healthcare in America blijkt dat één op de vier volwassen Amerikanen (66 miljoen mensen) al eens ChatGPT of een vergelijkbare chatbot heeft gebruikt voor medisch advies. Veel van hen doen dit zowel voor als na een bezoek aan een arts. In sommige gevallen besluiten mensen helemaal geen arts meer te raadplegen na een gesprek met een chatbot.

Van de mensen die AI raadpleegden voor medisch advies, zei 14% (meer dan negen miljoen Amerikanen) dat ze geen arts hebben bezocht die ze anders wel hadden bezocht. De belangrijkste redenen hiervoor waren:

  • Kosten: 27% kon of wilde geen doktersbezoek betalen.
  • Tijdgebrek: 14% had geen tijd of mogelijkheid om naar de dokter te gaan.

Tim Lash, president van het West Health Policy Center, waarschuwt: "Artificiële intelligentie verandert al hoe Amerikanen gezondheidsinformatie zoeken, beslissingen nemen en met zorgverleners omgaan. Gezondheidssystemen moeten hierop inspelen."

Waarom AI nog niet klaar is voor medische diagnoses

Het grootste probleem ligt in het feit dat AI-modellen niet in staat zijn om de "kunst van de geneeskunde" te repliceren. Differentiaaldiagnoses – het overwegen van meerdere mogelijke aandoeningen – vormen de kern van klinisch redeneren. Dit is iets wat AI momenteel niet kan.

Succi benadrukt: "AI kan geen rekening houden met de nuances van een patiënt, zoals emoties, context of subtiele aanwijzingen in een gesprek. Dit maakt het onmogelijk om betrouwbare diagnoses te stellen zonder menselijke tussenkomst."

Conclusie: AI als hulpmiddel, niet als vervanger

Hoewel AI een nuttig hulpmiddel kan zijn voor het zoeken naar gezondheidsinformatie, blijkt uit onderzoek dat het nog steeds onveilig is om volledig te vertrouwen op chatbots voor medisch advies. Miljoenen Amerikanen lopen het risico op verkeerde diagnoses en gevaarlijke adviezen door het gebruik van deze technologie.

Experts pleiten ervoor dat AI alleen gebruikt moet worden als ondersteuning, niet als vervanging voor een gekwalificeerde arts. Het is cruciaal dat mensen zich bewust zijn van de beperkingen van AI en niet afzien van professionele medische hulp op basis van advies van een chatbot.