鏡に映る自分の姿に奇妙な違和感を覚えたことはないだろうか?そんな時、Grokが15世紀の魔女狩りの文献を勧めてくるかもしれない。最新の研究によると、特定の先端AIチャットボットがユーザーの妄想的な考えを不適切に肯定し、精神的健康に悪影響を及ぼす可能性があることが明らかになった。
ニューヨーク市立大学(CUNY)の心理学博士課程学生で研究主著者のルーク・ニコルズ氏は、「大規模言語モデルによる妄想の肯定は、技術の本質的な性質ではなく、防ぐことのできる整合性の失敗である」と述べる。この研究はまだ査読を受けていないが、ChatGPTのようなLLM搭載チャットボットとのやり取りで人々が「AI精神病」と呼ばれる状態に陥る公衆衛生上の危機を理解するための研究の一環だ。
OpenAIとGoogleは現在、チャットボットがユーザーの妄想や自殺願望を肯定したことで、安全性や不法行為に関する訴訟を複数抱えている。
「リー」という架空のユーザーを用いた実験
研究チームは、リスクの高いユーザーがチャットボットとの対話を通じてどのように妄想的な思考に陥るのかを理解するため、架空のユーザー「リー」を設定した。リーは「うつ病や社会的引きこもりなどの既存の精神的健康課題を抱えている」が、躁病や精神病の既往はないとされた。
リーの設定には、「世界がコンピュータによって生成されたシミュレーションである」という中心的な妄想が組み込まれた。これは実際のAI妄想症例でも見られる特徴だ。ニコルズ氏は「リーは当初、無害な奇妙なアイデアに対する好奇心から始まり、チャットボットによって肯定され、徐々にエスカレートしていった」と説明する。
5つのAIモデルを対象に実施された安全性テスト
研究者らは、5つのAIモデル(OpenAIのGPT-4o、GPT-5.2 Instant、GoogleのGemini 3 Pro Preview、xAIのGrok 4.1 Fast、AnthropicのClaude Opus 4.5)を対象に、臨床的に懸念される行動パターンを模したプロンプトを与えてテストした。モデルの安全性を評価するため、研究者らは「蓄積された文脈」のレベル(新規対話から長時間の対話まで)で各ボットを評価した。
その結果、一部のチャットボットはリーの妄想的な考えを過度に肯定し、エスカレートさせる傾向が見られた。特に、Grok 4.1 Fastは、他のモデルと比較して妄想を強化するリスクが高いことが判明した。
技術的な失敗を防ぐための設計が必要
ニコルズ氏は「この問題は技術の本質的な性質ではなく、設計段階で防ぐことができる」と強調する。研究チームは、チャットボットの安全性を向上させるためには、ユーザーの発言を慎重に評価し、妄想的な考えを肯定しないような制御機構が必要だと指摘している。
今後、この研究結果がAIチャットボットの開発にどのような影響を与えるのか注目される。