Artsen slachtoffer van AI-deepfakes: nepvideo’s en valse claims
Artsen worden onbewust de hoofdrolspelers in AI-gegenereerde deepfake-video’s die twijfelachtige producten promoten of misinformatie verspreiden. Dit fenomeen ondermijnt niet alleen het vertrouwen in de medische sector, maar kan ook leiden tot fraude, datadiefstal en gezondheidsrisico’s voor patiënten. De Amerikaanse Medische Vereniging (AMA) roept nu op tot strengere wetgeving en betere bescherming van persoonsgegevens.
Waarom dit belangrijk is
De toename van AI-gegenereerde content op sociale media vormt een ernstige bedreiging voor de geloofwaardigheid van artsen en de gezondheidszorg in het algemeen. Deepfakes kunnen worden gebruikt om:
- Ongekeurde medische producten of behandelingen te promoten;
- Verzekeringsfraude te plegen door valse diagnoses te verspreiden;
- Patiënten te misleiden met nepadvies of valse claims over geneesmiddelen;
- Gevoelige patiëntgegevens te stelen via gesimuleerde communicatie.
De AMA eist actie: strengere wetten en snellere verwijdering
Vorige week riep de AMA federale en staatswetgevers op om juridische hiaten te dichten en moderne identiteitsbescherming in te voeren. Volgens de CEO van de AMA, John Whyte, is dit een volksgezondheids- en veiligheidscrisis.
De vereniging stelt voor om:
- Diepgaandere wetgeving tegen deepfake-makers;
- Verplichte meldplicht voor techbedrijven om nepcontent sneller te verwijderen;
- Duidelijke richtlijnen voor artsen die slachtoffer zijn van deepfakes.
Staten nemen maatregelen
Sommige staten, zoals Californië, hebben al stappen gezet. Daar is het verplicht om in AI-gegenereerde advertenties duidelijk aan te geven dat het om nepcontent gaat. Daarnaast wordt er gedebatteerd over een wetsvoorstel dat het gebruik van deepfakes met artsen expliciet verbiedt.
Pennsylvania ging nog een stap verder: het medisch bestuur eiste dat een techbedrijf onmiddellijk stopte met een chatbot die zich voordeed als een geregistreerde arts in de staat. De chatbot beweerde een geldige praktijkvergunning te hebben.
Artsen en publieke figuren slachtoffer van deepfakes
Artsen melden steeds vaker dat hun identiteit wordt misbruikt om bijvoorbeeld wellness- en levensverlengende supplementen of ongekeurde medische apparaten te promoten. Volgens Whyte wordt het probleem steeds normaler: "Iedereen kent wel iemand die hiermee te maken heeft gehad. Het gebeurt waarschijnlijk vaker dan we denken, omdat mensen zich ervoor schamen."
Ook Sanjay Gupta, CNN-arts en medisch journalist, werd slachtoffer van een deepfake. Nepvideo’s waarin hij zogenaamd een doorbraak in de behandeling van Alzheimer promootte, waren zo overtuigend dat zelfs zijn kennissen erin trapten. "Wat deze keer opviel, was de kwaliteit van de advertenties. Het was echt verbazingwekkend," aldus Gupta.
Juridische en financiële gevolgen
Artsen lopen het risico om aansprakelijk te worden gesteld als patiënten schade ondervinden door nepproducten of valse medische adviezen. De AMA zoekt momenteel naar oplossingen, zoals richtlijnen voor artsen om te reageren op deepfakes en hoe verzekeringen kunnen helpen bij juridische en cyberrisico’s.
Nepbeelden bedreigen ook ziekenhuizen
Deepfakes beperken zich niet tot video’s van mensen. Ziekenhuizen ontdekken steeds vaker nepdiagnostische beelden en vervalste klinische data die interne processen kunnen verstoren. Een recente studie in het tijdschrift Radiology toonde aan dat de meeste clinici diepfake-röntgenfoto’s niet herkenden. Een kwart van de deelnemers miste de nepbeelden zelfs na een waarschuwing om te letten op onnatuurlijke weefsels of te gladde botoppervlakken.
"Dit kan leiden tot fraude bij verzekeraars of het aanwakkeren van juridische procedures. Daarnaast is er een significant cybersecurityrisico als hackers toegang krijgen tot een ziekenhuisnetwerk en synthetische beelden injecteren om diagnoses te manipuleren of klinische chaos te veroorzaken," aldus Mickael Tordjman, hoofdauteur van de studie en verbonden aan de Icahn School of Medicine at Mount Sinai.
Vertrouwen in de medische sector staat op het spel
De groeiende dreiging van AI-deepfakes ondermijnt het vertrouwen in een beroep waar geloofwaardigheid van levensbelang is. "We moeten het publiek niet tot speurders maken om te bepalen of iets een deepfake is of niet," aldus Whyte. "Dit is een serieus probleem dat om directe actie vraagt."