Künstliche Intelligenz macht Ärzte unwissentlich zu Stars von Tiefenfälschungen – Videos, in denen sie dubiose Produkte bewerben oder gezielt Falschinformationen verbreiten. Diese Entwicklung alarmiert Mediziner und veranlasst sie, nach strengeren Datenschutz- und Transparenzgesetzen zu rufen.
Warum das Problem brisant ist
Die Flut an KI-generierten Inhalten auf Social-Media-Plattformen gefährdet das Vertrauen in die Medizin. Zudem könnten solche Manipulationen für Versicherungsbetrug, Datendiebstahl oder sogar Patientengefährdung missbraucht werden.
Die neuesten Entwicklungen
Die American Medical Association (AMA) forderte letzte Woche Bundes- und Landesgesetzgeber auf, rechtliche Lücken zu schließen und Identitätsschutz zu modernisieren. AMA-CEO John Whyte bezeichnete die Situation als „gesundheitliche und sicherheitstechnische Krise“.
Die Forderungen der Ärztevereinigung umfassen:
- Schärfere Kontrollen gegen Ersteller von Tiefenfälschungen
- Verpflichtende Regeln für Tech-Plattformen zur schnelleren Entfernung von Fälschungen
Kalifornien hat bereits erste Schritte unternommen: Werbevideos mit KI-Inhalten müssen als solche gekennzeichnet werden. Zudem wird über ein Gesetz diskutiert, das gezielt die Nutzung von Arzt-Bildern in Tiefenfälschungen verbietet.
In Pennsylvania ging es um eine andere Form der KI-Manipulation: Eine Tech-Firma erhielt eine Stopp-Anordnung, nachdem ihr Chatbot sich als lizenzierter Arzt ausgab – ohne eine solche Lizenz zu besitzen.
Betroffene Ärzte berichten
Immer häufiger entdecken Mediziner, dass ihre Identität für die Bewerbung von Nahrungsergänzungsmitteln, Anti-Aging-Produkten oder nicht zugelassenen Medizinprodukten missbraucht wird. John Whyte von der AMA erklärt:
„Es wird immer normaler. Jeder kennt jemanden, der davon betroffen ist. Vermutlich passiert es noch häufiger, als wir denken – viele schämen sich dafür.“
Zu den prominenten Opfern zählt Sanjay Gupta, CNN-Mediziner, dessen Bild für die Werbung eines angeblichen Durchbruchs bei Alzheimer-Medikamenten genutzt wurde. Selbst enge Bekannte ließen sich von der Qualität der Fälschungen täuschen.
„Was diesmal anders war, war die Qualität dieser Werbung. Das war wirklich verblüffend“,so Gupta gegenüber CNN.
Gefahren für Patienten und Ärzte
Die Risiken sind vielfältig: Patienten könnten durch nachgeahmte Empfehlungen geschädigt werden und Ärzte im schlimmsten Fall verklagt werden. Die AMA sucht derzeit nach Lösungen, wie betroffene Mediziner reagieren sollen und wie Versicherungen bei Haftungs- und Cyberrisiken unterstützen können.
Doch die Manipulationen beschränken sich nicht auf Personen: Gesundheitseinrichtungen entdecken zunehmend gefälschte Diagnosebilder und klinische Daten, die internen Schaden anrichten. Eine Studie im Fachmagazin Radiology zeigte, dass die meisten Kliniker gefälschte Röntgenbilder nicht erkennen – selbst nach Hinweisen auf typische Merkmale wie unnatürliche Gewebestrukturen oder zu glatte Knochenoberflächen.
Laut Studienleiter Mickael Tordjman von der Icahn School of Medicine at Mount Sinai könnten solche Fälschungen genutzt werden, um Versicherungen zu betrügen oder Klagen zu provozieren.
„Hacker könnten zudem in Krankenhausnetzwerke eindringen und synthetische Bilder einschleusen, um Diagnosen zu manipulieren oder klinisches Chaos auszulösen“,warnt er.
Fazit: Vertrauen in der Medizin steht auf dem Spiel
KI-Tiefenfälschungen untergraben die Glaubwürdigkeit einer Berufsgruppe, in der Vertrauen über Leben und Tod entscheiden kann. John Whyte bringt es auf den Punkt:
„Die Öffentlichkeit sollte nicht wie Detektive ermitteln müssen, um zu erkennen, ob etwas eine Fälschung ist.“