Legers identitet misbrukt i AI-dypfalsk-videoer
AI-teknologi blir i økende grad brukt til å lage dypfalsk-videoer der leger opptrer som frontfigurer for tvilsomme produkter eller spredning av feilinformasjon. Dette truer tilliten til helsevesenet og kan føre til alvorlige konsekvenser for pasienter, forsikringssvindel og dataangrep, ifølge amerikanske helseeksperter.
Leger og organisasjoner krever strengere lover
Den amerikanske legeforeningen American Medical Association (AMA) har bedt føderale og delstatlige myndigheter om å tette juridiske hull og modernisere regelverk for identitetsbeskyttelse. AMA beskriver problemet som en folkehelsekrise og krever blant annet:
- Skjerpede straffer for produsenter av dypfalsk-innhold
- Regler som tvinger teknologiselskaper til raskt å fjerne falske innhold
- Bedre beskyttelse for leger og pasienter mot misbruk av identitet
California har allerede innført lover som krever at AI-generert reklame skal merkes tydelig, og vurderer et forbud mot dypfalsk-videoer med leger. I Pennsylvania har medisinstyret pålagt et teknologiselskap å stanse en chatbot som utgav seg for å være en autorisert lege.
Kvaliteten på falskene blir stadig bedre
Leger rapporterer at de i økende grad oppdager at deres identitet blir brukt til å markedsføre kosttilskudd, helseprodukter og uautoriserte medisinske enheter. Dr. John Whyte, AMA-sjef, sier at problemet er blitt så utbredt at mange rammede føler seg flaue og ikke rapporterer det.
«Det blir mer og mer vanlig. Alle kjenner noen som har blitt rammet. Det skjer trolig oftere enn vi aner, fordi folk skammer seg over det.» – Dr. John Whyte, AMA
Eksempler på kjente ofre inkluderer CNNs lege Sanjay Gupta, som har oppdaget falske annonser der han promoterer en påstått revolusjonerende kur mot Alzheimer. Gupta forteller at kvaliteten på disse falskene har blitt så høy at til og med bekjente har blitt lurt.
Falske røntgenbilder og kliniske data truer pasientsikkerheten
Problemet er ikke bare begrenset til videoer. Sykehus og klinikker oppdager stadig flere falske diagnostiske bilder og kliniske data som kan føre til alvorlige feildiagnoser. En studie publisert i tidsskriftet Radiology viste at de fleste leger ikke klarte å oppdage dypfalsk røntgenbilder, og en firedel av deltakerne bommet til tross for advarsler om unaturlige teksturer og glatte overflater.
Mickael Tordjman, hovedforfatter av studien og lege ved Icahn School of Medicine, advarer om alvorlige konsekvenser:
«Dette kan brukes til forsikringssvindel, rettsprosesser eller til og med til å manipulere pasientbehandling ved å injisere syntetiske bilder i sykehusets systemer. Det utgjør en betydelig cybersikkerhetsrisiko.»
Pasienter kan bli utsatt for skade
Leger risikerer å bli saksøkt dersom pasienter tar skadelige produkter eller følger råd som aldri ble gitt av dem. AMA jobber nå med å utarbeide retningslinjer for hvordan rammede leger kan forsvare seg og hvordan forsikringsselskaper kan hjelpe.
Dr. Whyte understreker at tilliten til helsevesenet er avgjørende for liv og død:
«Vi bør ikke måtte gjøre allmennheten til detektiver for å avgjøre om noe er en dypfalsk.»
Hva kan gjøres?
For å bekjempe problemet foreslår eksperter:
- Styrket lovgivning mot misbruk av identitet og spredning av falsk informasjon
- Plattformansvar for teknologiselskaper til å fjerne falskt innhold raskt
- Økt bevissthet blant pasienter og helsepersonell om farene ved AI-generert innhold
- Teknologiske løsninger for å oppdage og blokkere dypfalsk-innhold