사이언스 논문 발표로 촉발된 AI 진단 능력 논쟁
과학 저널 사이언스(Science)에 연구 결과를 게재하는 것은 많은 연구자에게 평생의 영광으로 꼽힌다. 그러나 임상의학 및 임상 AI 연구자인 아담 로드먼(Adam Rodman)은 최근 발표된 연구 결과에 대해 복잡한 감정을 느끼고 있다고 밝혔다.
지난주 로드먼과 그의 연구팀은 오픈AI의 대형 언어 모델이 실제 환자 데이터를 기반으로 한 진단 및 임상 추론 평가에서 의사를 능가할 수 있음을 입증한 연구 결과를 사이언스에 발표했다. 로드먼은 이 논문의 공동 수석 저자로서, 1959년 사이언스에 실린 한 논문에 대한 답변으로 이 연구를 진행했다고 설명했다. 해당 논문은 "임상 의사 결정 지원 시스템이 인간의 진단을 능가할 수 있는지를 어떻게 확인할 것인가"에 대한 가이드라인을 제시한 바 있다.
실험 결과는 ‘실제 임상’에 적용될 수 있을까?
로드먼은 연구 결과가 발표되면서 일부에서 AI가 실제 환자 치료에서 안전하고 효과적임을 증명했다고 오해할 우려가 있다고 지적했다. 그는 특히 챗봇과 같은 생성형 AI 도구가 환자와 임상의에게 과도하게 마케팅되고 있는 현실을 우려했다. 로드먼은 "이러한 연구 결과는 모두 시뮬레이션 및 과거 사례 기반으로 진행된 실험에 불과하다"며 "실제 환자 치료 현장에서 AI의 안전성과 유효성을 보장하지 않는다"고 강조했다.
AI 진단의 한계점과 과제
로드먼의 연구는 AI가 특정 조건 하에서 인간의 진단을 능가할 수 있음을 보여주었지만, 이는 제한된 환경에서 진행된 실험 결과에 불과하다는 점에서 한계가 있다. 그는 다음과 같은 주요 과제를 제기했다.
- 실제 환자 데이터의 복잡성: 실험실 환경에서 얻은 결과가 복잡한 실제 임상 현장에서 동일하게 적용될 수 있는지는 아직 명확하지 않다.
- AI의 오류 가능성: 대형 언어 모델은 때때로 잘못된 정보를 생성할 수 있으며, 이는 환자의 안전에 직접적인 위협이 될 수 있다.
- 책임 소재의 모호성: AI가 내린 진단이나 치료 권고에 오류가 발생했을 경우, 책임을 누가 져야 하는지에 대한 명확한 규정이 없다.
과학계의 반응과 향후 전망
로드먼의 연구 결과는 AI 기술의 발전 가능성을 보여주었지만, 동시에 AI가 임상 현장에 도입되기 위해서는 해결해야 할 과제가 산적해 있음을 시사한다. 일부 전문가들은 AI가 보조 도구로 활용될 가능성에 주목하고 있지만, 로드먼을 비롯한 많은 연구자들은 AI의 한계를 인정하고 신중한 접근을 강조하고 있다.
"AI가 진단 능력을 입증했다고 해서, 그것이 곧 실제 임상에서 사용되어도 안전하다는 의미는 아닙니다. 우리는 AI의 한계를 분명히 이해하고, 이를 보완할 수 있는 시스템을 마련해야 합니다."
— 아담 로드먼, 임상의학 및 임상 AI 연구자
AI와 의료의 미래: 균형 잡힌 접근 필요
AI 기술이 의료 분야에서 활용되기 위해서는 다음과 같은 노력이 필요하다.
- 투명한 평가 체계 마련: AI 모델의 성능을 평가할 수 있는 표준화된 평가 체계가 필요하다.
- 규제 강화: AI 기반 의료 기술의 안전성과 유효성을 보장하기 위한 규제 강화가 시급하다.
- 의료진과 환자의 교육: AI 기술의 한계와 가능성을 이해하고, 이를 적절히 활용할 수 있는 교육이 필요하다.
로드먼은 "AI가 의료 현장에서 활용되기 위해서는 기술적 성능뿐만 아니라, 윤리적·사회적 측면도 함께 고려되어야 한다"고 강조했다. 그는 AI가 의료 혁신의 한 축으로 자리잡기 위해서는 과학계, 정책 입안자, 그리고 의료계의 공동 노력이 필요하다고 밝혔다.