Sztuczna inteligencja coraz częściej staje się narzędziem do tworzenia deepfake’ów z udziałem lekarzy, którzy bez swojej wiedzy promują wątpliwe produkty lub szerzą dezinformację. To zjawisko zmusza środowisko medyczne do apelowania o wprowadzenie nowych przepisów chroniących prywatność i zapewniających transparentność.

Dlaczego to ważne? Nadmiar treści AI w mediach społecznościowych może pogłębić erozję zaufania do instytucji medycznych. Istnieje także ryzyko wykorzystania deepfake’ów do oszustw ubezpieczeniowych, kradzieży danych lub zagrożenia bezpieczeństwa pacjentów.

Reakcja środowiska medycznego

Amerykańskie Stowarzyszenie Medyczne (AMA) wezwało w zeszłym tygodniu federalnych i stanowych prawodawców do wypełnienia luk prawnych oraz zmodernizowania ochrony tożsamości. Według CEO AMA, dr. Johna Whyte’a, problem ten stanowi zagrożenie dla zdrowia publicznego i bezpieczeństwa.

Organizacja domaga się również zaostrzenia kontroli nad twórcami deepfake’ów oraz wprowadzenia przepisów zobowiązujących platformy cyfrowe do szybszego usuwania fałszywych treści. Już teraz Kalifornia wprowadziła wymóg ujawniania, kiedy reklama jest generowana przez AI, a stanowa legislatura rozważa projekt ustawy, która jawnie zakazałaby deepfake’ów z udziałem lekarzy.

W zeszłym tygodniu rada medyczna stanu Pensylwania zajęła się innym przypadkiem wykorzystania AI. Zleciła ona firmie technologicznej zaprzestania działalności po tym, jak jeden z jej chatbotów podszywał się pod lekarza, twierdząc, że posiada uprawnienia do praktykowania medycyny w tym stanie.

Skala problemu rośnie

Lekarze coraz częściej odkrywają, że ich wizerunki są wykorzystywane do promowania suplementów na długowieczność, niezatwierdzonych urządzeń medycznych oraz innych wątpliwych produktów.

„To zjawisko staje się coraz bardziej powszechne. Każdy zna kogoś, kto padł ofiarą takich działań” – powiedział dr Whyte. „Prawdopodobnie zdarza się to częściej, niż sądzimy, ponieważ osoby poszkodowane często wstydzą się o tym mówić.”

Jedną z ofiar deepfake’ów jest dr Sanjay Gupta, który przyznał, że fałszywe reklamy wykorzystujące jego wizerunek – np. promujące rzekome przełomowe lekarstwo na Alzheimera – stały się tak realistyczne, że oszukały nawet niektórych znajomych.

„To, co wyróżniało te reklamy, to ich jakość. Były naprawdę zaskakująco realistyczne” – powiedział Gupta w wywiadzie dla CNN.

Konsekwencje prawne i zagrożenia dla pacjentów

Lekarze mogą zostać pozwani, jeśli pacjenci ucierpią w wyniku stosowania podrobionych produktów lub podejmowania decyzji medycznych na podstawie fałszywych porad – ostrzega dr Whyte. AMA szuka sposobów, jak pomóc poszkodowanym lekarzom oraz jak ubezpieczenia od odpowiedzialności zawodowej i cyberodpowiedzialności mogą ich chronić.

Problem nie ogranicza się jedynie do osób. Systemy ochrony zdrowia wykrywają fałszywe obrazy diagnostyczne i inne sfałszowane dane kliniczne, które mogą powodować poważne zakłócenia w funkcjonowaniu placówek.

Według niedawnego badania opublikowanego w czasopiśmie Radiology, większość klinicystów nie była w stanie rozpoznać fałszywych zdjęć rentgenowskich. Co czwarty lekarz nie zauważył fałszerstwa nawet po otrzymaniu wskazówek, jak je rozpoznać – np. nienaturalnych tekstur tkanek miękkich czy zbyt gładkich powierzchni kości.

Takie fałszerstwa mogą posłużyć do oszustw ubezpieczeniowych, prowokowania sporów prawnych lub wprowadzania chaosu klinicznego – ostrzega główny autor badania, dr Mickael Tordjman z Icahn School of Medicine w Mount Sinai.

„Istnieje także poważne ryzyko cybernetyczne: hakerzy mogliby włamać się do sieci szpitala i wprowadzić syntetyczne obrazy, aby manipulować diagnozami pacjentów lub wywołać szeroko zakrojoną dezorganizację kliniczną” – dodał.

Apel o pilne działania

AI podważa zaufanie do zawodu, w którym wiarygodność może decydować o życiu i śmierci – podkreśla dr Whyte.

„Nie powinniśmy zmuszać społeczeństwa do bycia detektywami, którzy muszą samodzielnie weryfikować, czy coś jest deepfake’iem” – powiedział.

Źródło: Axios