Искусственный интеллект становится инструментом для создания дипфейк-видео с участием врачей, которые продвигают сомнительные продукты или распространяют ложную информацию. Это вызывает обеспокоенность у медицинского сообщества, требующего введения более строгих законов о защите данных и прозрачности.

Почему это важно: избыток контента, созданного с помощью ИИ, может подорвать доверие общества к медицине. Кроме того, такие технологии могут использоваться для мошенничества с медицинскими страховками, кражи данных и создания угроз для пациентов.

Реакция медицинского сообщества

Американская медицинская ассоциация (AMA) обратилась к федеральным и региональным законодателям с призывом закрыть правовые пробелы и обновить меры защиты личных данных. Генеральный директор AMA Джон Уайт охарактеризовал ситуацию как «кризис в области здравоохранения и безопасности».

Организация также требует ужесточить наказание для создателей дипфейков и обязать технологические платформы быстрее удалять поддельные материалы. В некоторых штатах уже принимаются меры: в Калифорнии вводятся обязательные уведомления о рекламе с использованием ИИ, а также обсуждается законопроект о запрете дипфейков с изображением врачей.

В Пенсильвании медицинский совет вынес предписание одной из технологических компаний после того, как её чат-бот выдал себя за врача с действующей лицензией.

Рост масштабов проблемы

Врачи всё чаще сталкиваются с фактами использования их изображений для продвижения добавок для здоровья, устройств и других сомнительных товаров. «Это становится обычным явлением. У каждого есть знакомый, на которого это повлияло», — заявил Уайт. Многие пострадавшие стесняются об этом говорить, поэтому реальные масштабы проблемы могут быть недооценены.

Среди известных жертв — врач и телеведущий CNN Санджай Гупта, который сообщил, что поддельные ролики с его участием, рекламирующие, например, «прорывное средство от Альцгеймера», настолько реалистичны, что даже обманули некоторых его знакомых.

«Качество этих рекламных роликов было просто поразительным. Это действительно впечатляет». — Санджай Гупта

Угрозы для пациентов и клиник

Врачи рискуют быть привлечены к суду, если пациенты пострадают от поддельных продуктов или советов, которые никогда не давал реальный врач. AMA ищет пути, как помочь пострадавшим медикам и какие меры страхования могут их защитить.

Проблема не ограничивается людьми: медицинские учреждения сталкиваются с поддельными диагностическими изображениями и клиническими данными, которые могут нанести серьёзный ущерб. Исследование в журнале Radiology показало, что большинство врачей не смогли распознать поддельные рентгеновские снимки. Четверть участников не заметили фальшивки даже после предупреждения о характерных признаках, таких как неестественные текстуры мягких тканей или слишком гладкие поверхности костей.

Такие подделки могут использоваться для мошенничества со страховками или разжигания судебных исков. Как отметил ведущий автор исследования Микаэль Торджман из Медицинской школы имени Икана при больнице Маунт-Синай, «существует значительный риск кибербезопасности, если злоумышленники получат доступ к сети больницы и внедрят синтетические изображения для манипуляции диагнозами или создания хаоса в клинической практике».

Что делать дальше?

Эксперты подчёркивают, что ИИ подрывает доверие к профессии, где авторитет может означать разницу между жизнью и смертью. «Обществу не следует становиться детективами, чтобы определить, является ли контент дипфейком», — заявил Уайт.

Источник: Axios