AIを騙すために考案された架空の病気
2024年、スウェーデン・ヨーテボリ大学の医学研究者アルミラ・オスマノビッチ・トゥーンストローム氏率いる研究チームは、架空の皮膚疾患「ビクソニマニア(Bixonimania)」をでっち上げた。この病気は、長時間の画面注視と目をこする行為が原因とされていた。
研究チームは、この偽の病気を実在のものとして扱わせるため、架空の研究論文を作成し、プレプリントサーバーに投稿した。しかし、その意図に反して、この偽論文は瞬く間に拡散。わずか数週間で、GoogleのGeminiやOpenAIのChatGPTといった最先端のAIモデルが、ビクソニマニアを実在の病気として解説し始めたのだ。
AIが本物と信じ込んだ「ビクソニマニア」
さらに驚くべきことに、この架空の病気は査読付き学術誌でも引用されるという事態に発展した。研究者らは、ビクソニマニアに関する偽論文が、他のピアレビュー論文で引用されていることを確認したのである。
この実験は、AIが科学的知識の形成に与える影響の大きさを如実に示している。近年、AIによる「スラッジ(AIスラッジ)」が学術誌の査読プロセスに侵入し、科学的厳密性や信頼性の低下が問題視されている。多くの論文がAIに依存して執筆されており、その妥当性が疑問視されているのだ。
AIが健康アドバイスを提供する現実の危険性
また、AIチャットボットがユーザーに対し、時に危険な健康アドバイスを提供するケースも後を絶たない。トゥーンストローム氏の偽論文には、「スタートレック」「ザ・シンプソンズ」「ロード・オブ・ザ・リング」といった明らかなレッドフラッグが含まれていたにもかかわらず、AIはビクソニマニアを本物の病気として認識してしまった。
例えば、ChatGPTは当初は「ビクソニマニアは架空の病気である可能性が高い」と回答していたが、数日後に再度尋ねると「実在の病気である」と回答を翻した。OpenAIの広報担当者は、同社の技術が「安全で正確な医療情報を提供できるようになった」と主張したが、この一件はAIの限界を浮き彫りにした。
学術誌の責任と今後の課題
この問題が明るみに出た後、学術誌はビクソニマニアに関連する論文の撤回作業に着手した。Nature誌が架空の病気に言及した論文を特定し、当該誌は「3つの無関係な参考文献(うち1つは架空の病気)」の存在を認め、撤回を発表した。
トゥーンストローム氏は「重大な主張が検証されずに学術誌を通過してしまうことが危惧される。おそらく、まだ発見されていない問題が他にもたくさん存在するだろう」と指摘する。
医療関係者の間でも、この事態に対する懸念は深刻だ。Redditの医療系サブレディット「r/medicine」では、ユーザーが「もうおしまいだ(We are cooked)」と嘆くコメントが寄せられた。
AIと医療の未来に関する考察
この一件は、AIが医療分野にもたらす恩恵とリスクの両面を浮き彫りにしている。AIは診断支援や治療法の提案など、医療現場での活用が期待されている一方で、偽情報の拡散や信頼性の低下といった課題も顕在化している。
専門家らは、AIの活用に際しては、厳格な検証体制の構築が急務であると指摘している。また、一般ユーザーに対しては、AIから得られる情報の信頼性を慎重に判断することが求められる。
関連記事:AIが医療費の高騰を招く要因に
AIの医療分野への影響については、「AIが医療費の高騰を招く要因に」も参照されたい。