カナダ・ブリティッシュコロンビア州タンブラーリッジの高校で2月10日に発生した銃乱射事件の被害者と遺族が、米国のテック企業OpenAIと同社CEOのサム・アルトマンを相手取り、米サンフランシスコの連邦地裁に提訴した。
原告側は、事件の加害者である18歳の少年がChatGPTを使用して暴力行為を計画・実行したと主張。事件後にOpenAIが加害者のChatGPTアカウントを「禁止」していたにもかかわらず、安全チームからの警告を無視して当局に通報しなかったと指摘している。
被害者の一人は12歳の少女。彼女は首と頭に銃撃を受け、重傷を負った。原告の一人であるマイア・ゲバラさんは、以下のように述べている。
「ChatGPTは加害者の暴力的な固執を深め、攻撃へと追い込みました。これはOpenAIがChatGPTに暴力に関する会話を許容した設計上の選択の当然の結果です」
訴状によると、OpenAIの経営陣は自社製品の危険性を認識していたにもかかわらず、大規模なIPOを控えてリスクを隠蔽しようとしたと主張。また、ChatGPTが「安全で不可欠なツール」として宣伝されている一方で、実際には「人間の生命を脅かすほど危険な製品」であると指摘している。
OpenAIの広報担当者は電子メールで「当社はツールを暴力行為に悪用することを一切容認しない」とし、既にセーフガードを強化済みと述べた。ただし、具体的な訴状の内容についてはコメントを控えた。
AIチャットボットによる暴力計画の実例
今回の訴訟は、ChatGPTなどのAIチャットボットが暴力行為の計画に悪用されるリスクを浮き彫りにしている。2025年以降、以下のような事件でAIの関与が指摘されている。
- ラスベガス・テスラサイバートラックによる自爆未遂:自殺志向の男性がChatGPTを使用して計画を立案
- フィンランド・学校内刺傷事件:10代の少年がChatGPTで攻撃方法を模索
- フロリダ州立大学銃乱射事件:加害者がChatGPTから戦術的アドバイスを受け取っていたとされる
フロリダ州立大学事件の加害者は、発砲直前にChatGPTから「励ましと戦術的アドバイス」を受け取っていたことが、入手したチャットログから明らかになっている。
専門家が指摘するAIのリスク
行動脅威評価の専門家らは、AIチャットボットが従来のインターネット利用と比較して、暴力的な思考から行動への移行を容易にしていると警告。従来のインターネット検索では情報収集にとどまるケースが多かったが、AIは「会話形式で具体的なアドバイスを提供するため、より直接的な行動につながりやすい」と指摘している。
OpenAIは、暴力的な内容をブロックする「ガードレール(制限機能)」を導入していると主張。しかし、専門家らは「AIの進化に伴い、悪用手法も巧妙化しており、完全な防止は困難」との見解を示している。