医療AIの現状:過剰な期待と深刻な課題

米国では、数百万人が医師に相談する代わりにAIチャットボットに医療アドバイスを求めている。しかし、研究者らは依然として、大規模言語モデル(LLM)を基盤とした医療AIに深刻な欠陥が存在することを指摘している。

LLMを活用した医療AIは、医療記録の要約や健康アドバイスを提供する機能を謳っているが、その多くは幻覚と呼ばれる問題を抱えている。例えば、AIが画像を与えられていないにもかかわらず詳細な臨床所見を生成したり、研究者が仕掛けた偽の疾患に騙されたりするケースが報告されている。

こうした問題を受け、世界的な医学誌「Nature Medicine」は12日、医療AIの活用に対する厳しい見解を示す論説を発表した。同誌は、医療AIが患者、医療従事者、医療システムに価値をもたらすという「証拠は極めて乏しい」と指摘。その一方で、製品資料や論文では臨床的な影響を主張するケースが増加しており、その信頼性に疑問を呈している。

「科学的な不確実性が生じているだけでなく、しばしば早すぎる実装と導入が行われている」
— Nature Medicine 編集部

同誌は、医療AI技術の評価方法、指標、ベンチマークを定める「枠組み」の確立が「緊急に必要」であると主張している。

実験室と現実のギャップ:AIの限界が浮き彫りに

医療AIは実験条件下では有効に見えるが、現実の臨床現場ではその性能が低下するケースが多い。例えば、JAMA Medicine誌に掲載された研究では、曖昧な症状を与えられた最先端のAIモデルが、正しい診断を下せなかった割合が80%を超えることが明らかになった。

AIは研究支援に活用できるか?専門家の見解

一方で、AIは研究プロセスの効率化に貢献する可能性も指摘されている。ハーバード医学大学院外科助教授のJamie Robertson氏は、以下のように述べている。

「AIは、面倒で困難なプロセスを加速させるのに役立つ。データ分析用のコード作成やシナリオ提案などで活躍するだろう」
— Jamie Robertson 氏

しかし、Robertson氏は続けて、AIを臨床研究に活用する際には、その「正しい使い方と間違った使い方」を理解し、適切な文脈で使用することが重要だと強調する。AIへの過信は、科学的厳密さの低下や、過度に一般化された(場合によっては幻覚に基づく)データの拡散につながる可能性があるという。

偽の研究データがAIを騙す実験も

スウェーデン・ヨーテボリ大学の医学研究者Almira Osmanovic Thunström氏は、架空の皮膚疾患に関する偽の研究論文をプレプリントサーバーに投稿し、LLMを騙す実験を行った。その結果、他の査読付き学術誌がこの偽論文を引用し、後に撤回されるという事態が発生した。この実験は、医療分野におけるAIの信頼性に関する重大な疑問を投げかけている。

今後の展望:信頼性と規制の必要性

専門家らは、医療AIの次の段階の進歩には、より優れたモデルの開発だけでなく、適切な評価基準と規制の整備が不可欠であると指摘する。AI技術の発展は加速しているが、その安全性と有効性を確保するための枠組みが急務となっている。

出典: Futurism