지난달 말, 유타주의 의료면허위원회는 AI 기업 닥트로닉(Doctronic)과의 파일럿 프로그램 즉각 중단 요청을 공식화했습니다. 이 프로그램은 AI 챗봇이 환자의 상태를 평가하고, 만성질환 약물 약 200종에 대한 처방 재갱신 권고를 내리는 시스템으로, 기존에는 의사 개별 검토가 필수였으나 이를 단계적으로 폐지할 계획이었습니다.

위원회는 이 프로그램이 시작된 후에서야 그 존재를 알게 되었다며, ‘적절한 임상 감독 없이 진행될 경우 유타주 시민의 안전을 위협할 수 있다’고 경고했습니다. 이는 AI 기반 의료 시스템의 규제와 책임 소재에 대한 본격적인 논의를 촉발시키고 있습니다.

AI 의사가 환자를 진료할 수 있을까?

AI 기술이 의료 현장에 급속히 확산되면서, AI가 환자의 진단·처방·수술까지 담당하는 시대가 머지않았다는 전망이 나오고 있습니다. 특히 챗봇 형태의 AI는 환자의 증상 설명을 듣고 초기 진단을 내리며, 약물 처방 권고까지 가능하다는 점에서 주목받고 있습니다.

하지만 AI의 한계점도 명확합니다. AI는 환자의 정서적 상태나 복잡한 의학적 맥락을 100% 이해하지 못하며, 오진이나 잘못된 처방으로 인한 법적·윤리적 문제가 발생할 수 있습니다. 유타주 사례는 AI 의료 시스템의 안전성 확보를 위한 규제 체계 마련의 시급성을 보여줍니다.

AI 의료 시스템 규제 프레임워크 제안

AI 의사가 환자를 진료할 수 있도록 하려면, 다음과 같은 체계적인 규제와 책임 구조가 필요합니다.

  • 면허 제도 도입: AI 시스템도 의료인처럼 엄격한 인증 절차를 거쳐야 하며, 특정 질환·환자군에 대한 진료 범위를 한정해야 합니다.
  • 투명성 확보: AI의 의사결정 과정을 ‘블랙박스’로 남기지 말고, 환자 및 의사가 이해할 수 있도록 설명 가능한 AI(XAI) 개발이 필수입니다.
  • 책임 소재 명확화: AI 오류로 인한 피해 발생 시, 제조사·개발사·의료기관·의사의 책임 범위를 법적으로 чет히 규정해야 합니다.
  • 지속적 모니터링: AI 시스템은 실시간으로 성능을 모니터링하고, 이상 징후 발생 시 즉각적인 중단·수정이 가능해야 합니다.
  • 환자 동의 강화: AI가 진료에 관여할 경우, 환자에게 충분한 설명과 선택권을 제공해야 합니다.

국제적 규제 동향과 시사점

미국 FDA는 AI 기반 의료기기의 경우, ‘소프트웨어로서의 의료기기(SaMD)’로 분류해 엄격한 승인 절차를 적용하고 있습니다. 유럽연합은 AI 시스템 규제(AI Act)를 통해 고위험 AI에 대한 엄격한 규제를 추진 중입니다. 우리나라도 AI 의료 시스템에 대한 가이드라인 마련이 시급한 상황입니다.

유타주 사례는 AI가 의료 현장에 도입될 때, 안전성과 책임 문제가 얼마나 중요한지를 보여주는 사례입니다. AI 기술의 발전 속도를 고려할 때, 규제와 혁신의 균형을 맞추는 것이 앞으로의 과제로 떠오르고 있습니다.

출처: STAT News