В конце прошлого месяца Медицинский лицензионный совет Юты потребовал немедленно приостановить пилотную программу, реализуемую в штате совместно с компанией Doctronic. В рамках проекта ИИ-чатбот анализировал состояние пациентов и рекомендовал продление рецептов на лекарства для лечения хронических заболеваний — всего около 200 препаратов. При этом власти планировали постепенно отказаться от обязательной проверки каждого случая врачом.
Как выяснилось, совет узнал о запуске программы только после её старта. В своём заявлении члены совета подчеркнули, что продолжение проекта без должного клинического контроля «ставит под угрозу безопасность граждан Юты».
Почему ИИ-медицина требует регулирования
Эксперты в области здравоохранения и права всё чаще говорят о необходимости создания чётких правил для использования искусственного интеллекта в медицине. Основные риски связаны с:
- Отсутствием подотчётности: кто несет ответственность, если ИИ-система ошибается — разработчик, врач или сам пациент?
- Непрозрачностью алгоритмов: как пациенты могут доверять решениям, механизм принятия которых им непонятен?
- Правовой неопределённостью: действующее законодательство не адаптировано под ИИ-инструменты, что создаёт пробелы в регулировании.
Предложенный подход к лицензированию ИИ-врачей
Для решения этих проблем группа исследователей из Стэнфордского университета разработала проект рамок регулирования, который предполагает:
1. Обязательную сертификацию алгоритмов
Каждый ИИ-инструмент, используемый в медицине, должен проходить независимую экспертизу на безопасность и эффективность. Это включает:
- Тестирование на репрезентативных данных;
- Публичное раскрытие информации о принципах работы алгоритма;
- Регулярные аудиты после внедрения.
2. Лицензирование специалистов, работающих с ИИ
Врачи и медицинский персонал, использующие ИИ-системы, должны проходить дополнительное обучение и получать специальные сертификаты. Это поможет:
- Минимизировать ошибки при интерпретации рекомендаций ИИ;
- Обеспечить соответствие этическим стандартам;
- Создать систему ответственности за неправильное применение технологий.
3. Чёткое распределение ответственности
Законодательство должно определять, кто несёт юридическую ответственность в случае ошибки:
- Разработчики ИИ: за дефекты в алгоритме;
- Медицинские учреждения: за неправильное внедрение или использование;
- Врачи: за игнорирование предупреждений системы или неправильную интерпретацию её рекомендаций.
Международный опыт: как другие страны регулируют ИИ в медицине
Некоторые государства уже внедряют собственные подходы к регулированию ИИ в здравоохранении:
- Европейский Союз: В 2024 году вступил в силу Закон об искусственном интеллекте (AI Act), который классифицирует медицинские ИИ-системы как «высокорисковые» и требует их обязательной сертификации.
- Великобритания: Агентство по регулированию лекарственных средств и медицинских изделий (MHRA) разработало руководство по ИИ в медицине, фокусируясь на прозрачности и подотчётности.
- США: Управление по санитарному надзору за качеством пищевых продуктов и медикаментов (FDA) уже одобрило несколько ИИ-инструментов для диагностики и лечения, но требует строгого контроля на этапе внедрения.
Вывод: безопасность пациентов превыше всего
Пилотная программа в Юте показала, что без надлежащего регулирования ИИ в медицине может стать источником рисков. Предложенные Стэнфордским университетом рамки лицензирования могут стать основой для создания безопасной и прозрачной системы, где технологии дополняют, но не подменяют профессионализм врачей.
«Искусственный интеллект способен revolutionize медицину, но только при условии строгого контроля и ответственности. Без этого мы рискуем получить систему, где технологии управляют людьми, а не наоборот».