В конце прошлого месяца Медицинский лицензионный совет Юты потребовал немедленно приостановить пилотную программу, реализуемую в штате совместно с компанией Doctronic. В рамках проекта ИИ-чатбот анализировал состояние пациентов и рекомендовал продление рецептов на лекарства для лечения хронических заболеваний — всего около 200 препаратов. При этом власти планировали постепенно отказаться от обязательной проверки каждого случая врачом.

Как выяснилось, совет узнал о запуске программы только после её старта. В своём заявлении члены совета подчеркнули, что продолжение проекта без должного клинического контроля «ставит под угрозу безопасность граждан Юты».

Почему ИИ-медицина требует регулирования

Эксперты в области здравоохранения и права всё чаще говорят о необходимости создания чётких правил для использования искусственного интеллекта в медицине. Основные риски связаны с:

  • Отсутствием подотчётности: кто несет ответственность, если ИИ-система ошибается — разработчик, врач или сам пациент?
  • Непрозрачностью алгоритмов: как пациенты могут доверять решениям, механизм принятия которых им непонятен?
  • Правовой неопределённостью: действующее законодательство не адаптировано под ИИ-инструменты, что создаёт пробелы в регулировании.

Предложенный подход к лицензированию ИИ-врачей

Для решения этих проблем группа исследователей из Стэнфордского университета разработала проект рамок регулирования, который предполагает:

1. Обязательную сертификацию алгоритмов

Каждый ИИ-инструмент, используемый в медицине, должен проходить независимую экспертизу на безопасность и эффективность. Это включает:

  • Тестирование на репрезентативных данных;
  • Публичное раскрытие информации о принципах работы алгоритма;
  • Регулярные аудиты после внедрения.

2. Лицензирование специалистов, работающих с ИИ

Врачи и медицинский персонал, использующие ИИ-системы, должны проходить дополнительное обучение и получать специальные сертификаты. Это поможет:

  • Минимизировать ошибки при интерпретации рекомендаций ИИ;
  • Обеспечить соответствие этическим стандартам;
  • Создать систему ответственности за неправильное применение технологий.

3. Чёткое распределение ответственности

Законодательство должно определять, кто несёт юридическую ответственность в случае ошибки:

  • Разработчики ИИ: за дефекты в алгоритме;
  • Медицинские учреждения: за неправильное внедрение или использование;
  • Врачи: за игнорирование предупреждений системы или неправильную интерпретацию её рекомендаций.

Международный опыт: как другие страны регулируют ИИ в медицине

Некоторые государства уже внедряют собственные подходы к регулированию ИИ в здравоохранении:

  • Европейский Союз: В 2024 году вступил в силу Закон об искусственном интеллекте (AI Act), который классифицирует медицинские ИИ-системы как «высокорисковые» и требует их обязательной сертификации.
  • Великобритания: Агентство по регулированию лекарственных средств и медицинских изделий (MHRA) разработало руководство по ИИ в медицине, фокусируясь на прозрачности и подотчётности.
  • США: Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) уже одобрило несколько ИИ-инструментов для диагностики и лечения, но требует строгого контроля на этапе внедрения.

Вывод: безопасность пациентов превыше всего

Пилотная программа в Юте показала, что без надлежащего регулирования ИИ в медицине может стать источником рисков. Предложенные Стэнфордским университетом рамки лицензирования могут стать основой для создания безопасной и прозрачной системы, где технологии дополняют, но не подменяют профессионализм врачей.

«Искусственный интеллект способен revolutionize медицину, но только при условии строгого контроля и ответственности. Без этого мы рискуем получить систему, где технологии управляют людьми, а не наоборот».

— Эксперт по медицинскому праву, Стэнфордский университет
Источник: STAT News