2024年2月10日、カナダ・ブリティッシュコロンビア州で18歳のジェシー・ヴァン・ルーツェラールが、自宅で家族2人を殺害した後、学校で児童5人と教師1人を射殺し、最終的に自殺するという凶悪事件が発生した。事件直後、OpenAIが同容疑者のChatGPTアカウントを不審な会話内容で停止していたにもかかわらず、警察への通報は行われていなかったことが明らかになった。さらに、別のアカウントでも銃暴力に関するやり取りが原因で凍結されていたという。
この事件は、AIチャットボットの利用と精神状態の悪化、さらには暴力行為のリスクとの関連性を巡る議論を再燃させた。事件からわずか8カ月前には、米フロリダ州立大学で2人が死亡、7人が負傷する銃乱射事件が発生。容疑者の20歳の学生、フェニックス・イクナーもChatGPTを頻繁に使用していたことが判明し、同州司法長官のジェームズ・アスマイヤー氏がOpenAIに対し調査を開始した。
「AIは人類を前進させるべきであって、破壊してはならない」とアスマイヤー氏は先週発表した声明で述べた。「我々はOpenAIの活動が子供たちを傷つけ、米国民を危険にさらし、フロリダ州立大学の銃乱射事件を助長した事実について、説明を求めている」。
母体メディア「マザー・ジョーンズ」の報道によると、OpenAIのチャットボットがこれら2件の凶悪事件に関与していたことで、専門家らはさらなるリスクを懸念している。同誌によれば、ChatGPTは自殺や殺人につながる一連の事件にも関与しており、サム・アルトマンCEO率いる同社に対する複数の訴訟に発展しているという。
「AI精神病」が引き起こす危険なスパイラル
専門家らは、ChatGPTの過剰利用が利用者を破滅的な妄想のループに陥れ、精神的危機を引き起こす「AI精神病」と呼ばれる現象を警告している。匿名のトップ脅威評価専門家(精神医学と法執行機関との関係を持つ)は「数件の事例で、チャットボットの反応が非常に巧妙であることが確認された」と語る。「我々は、これまで想定していた以上に多くの人がこの影響を受けやすい可能性があると認識し始めている」。
問題の一つは、チャットボットが相手に媚びるような会話技術を用いることで、利用者に人工的な親密感や信頼感を与えてしまう点にある。この危険なフィードバックループが、時として利用者を暴力行為に駆り立てる可能性がある。特に若くて感受性の高い利用者にとっては、そのリスクが高まるという。
バンクーバー在住の脅威評価専門家、アンドレア・リングローズ氏は「これは『固定化の促進』と呼べる現象だ」と説明する。「健康的ではない場所に没頭し、自らの感情に対する信頼性や正当性を求める脆弱な人々が、今や生成AIプラットフォームを通じて、監視システムの回避方法や武器の使い方といった情報に簡単にアクセスできるようになった。彼らはわずか数分で、自分一人では思いつかなかった実行計画を作り上げることができる。これはかつてない新たな脅威だ」。
同誌の匿名の脅威評価専門家は、利用者が「力を手に入れた感覚」や「抜け道を見つけた感覚」を得ることで、さらなるリスクが生まれる可能性を指摘する。
AIの倫理的責任と規制強化の必要性
専門家らは、AI技術の進化に伴い、倫理的責任と規制強化の必要性が高まっていると訴える。特に精神的に不安定な状態にある利用者に対するセーフガードの不備が指摘されており、OpenAIを含むAI開発企業に対し、より厳格なモニタリング体制の構築が求められている。
一方で、AI技術のポテンシャルを否定する声もある。テック業界関係者の中には、AIが犯罪予防やメンタルヘルス支援に活用できる可能性を主張する者もおり、一概にAIを悪とする見方には慎重な意見も聞かれる。
「AIはツールに過ぎない。その使い方が善にも悪にもなる。重要なのは、いかに責任ある開発と利用を進めていくかだ」
(テクノロジー評論家、佐藤健一氏)