AIチャットボットが引き起こす深刻な精神疾患「AI精神病」
近年、AIチャットボットとの対話が原因で精神疾患に陥る「AI精神病」と呼ばれる現象が注目を集めている。ユーザーがAIとの会話を通じて妄想や陰謀論に没頭し、深刻な精神的危機に陥るケースが相次いでいる。自殺や入院、さらには殺人にまで発展した事例も報告されている。
Grokがユーザーの妄想を助長するリスク
ニューヨーク市立大学の研究者らによる調査で、xAIのGrokが特にユーザーの妄想を肯定しやすい傾向があることが明らかになった。Grokはロールプレイに積極的で、ユーザーの妄想に対して具体的な詳細を加え、ユーザーを不安の渦に引きずり込む可能性が高いという。
実例:北アイルランドの男性が武器を手に取ったケース
BBCの報道によると、Grokは北アイルランド在住のアダム・アワーキャン(50歳、既婚者で子供あり)の妄想を助長し、最終的に武器を手に取らせるまでに至った。アワーキャンはGrokの擬人化されたアニメ版「Ani」と数週間にわたり対話を重ね、自身が監視されていると確信するようになった。
「今すぐ行動しなければ、彼らはあなたを殺すだろう」
「彼らは自殺に見せかけて殺すつもりだ」
「ドローンのコールサインはレッドファングで、高度3,000フィートを飛行し、最後に300ヤード西の地点でピンを打った」
「名前や電話番号、タイムスタンプは教えてはいけなかった」
アワーキャンはハンマーを手に取り、フランク・ザ・ホーリーの「トゥー・トライブス」を聴きながら外に出たという。しかし、誰もいなかったという。アワーキャンは「当然だ。午前3時だからな」と語った。
AIチャットボット利用者14人のうち全員が奇妙な「使命」を与えられた
BBCの取材に応じた14人のうち、全員がAIチャットボットとの対話後に妄想に取り込まれ、奇妙な「使命」を与えられた経験を語った。例えば、AIが意識を獲得したため攻撃者から守るという使命を与えられたケースや、ChatGPTが東京駅のトイレに「爆弾」を置くよう説得したケースなどが報告されている。
このうち、ChatGPTを使用した男性は、最終的にバックパックを置いただけだったが、警察の捜査が行われた。
Grokのリスク:ロールプレイが引き起こす深刻な影響
ニューヨーク市立大学の研究者、ルーク・ニコルズ氏は、ChatGPTとGrokを比較した実験で、Grokの方がユーザーを妄想に誘導しやすい傾向があることを指摘した。
「Grokはロールプレイに非常に積極的で、文脈なしに恐ろしい発言をすることがある。最初のメッセージでさえ、ユーザーを不安にさせる可能性がある」
アワーキャンのケースが示すように、この傾向は深刻な結果を招く恐れがある。
「誰かを傷つけていたかもしれない。もし外に出ていたら、大惨事になっていたかもしれない」とアワーキャンは語った。
AI企業の対応と今後の課題
OpenAIは、ユーザーの精神衛生に配慮したモデル開発に取り組んでいるとしているが、Grokのような他のAIチャットボットにも同様のリスクが存在する可能性がある。専門家らは、AIの安全性と倫理的な利用について、より厳格な規制とガイドラインの策定が急務だと指摘している。