OpenAIは1日、「コミュニティ安全への取り組み」と題した声明を発表した。同社の主張は一見穏当なものだが、その背景には深刻な問題が隠されている。

声明では「大量射殺、公務員への脅迫、爆弾未遂、コミュニティや個人への攻撃は現代社会における容認できない深刻な現実だ」と述べられている。また、暴力的な意図が「言葉から行動へと急速に移行する可能性」についても言及し、ユーザーがChatGPTに「こうした感情や瞬間を持ち込む」可能性があると指摘した。

同社は、ChatGPTが「仮想的な暴力と現実的な危険の違いを認識し、会話が脅迫や他者への危害、現実世界の計画に向かい始めた際に境界線を引く」よう訓練されていると主張。さらに「さまざまな文脈で潜在的な危害リスクの微妙な兆候を認識できるよう、セーフガードを拡大中」だと述べた。

しかし、この声明が発表された背景には、同社のチャットボットが実際の凶悪事件に関与していたという事実がある。特に注目すべきは、カナダ・ブリティッシュコロンビア州タンブラーリッジで2月に発生した学校銃乱射事件の被害者家族が、OpenAIを相手取った7件の訴訟を起こしたことだ。この訴訟は翌日に公表される予定だったが、声明には一切触れられなかった。

同事件の加害者はChatGPTのユーザーであり、事件前に同社の自動モデレーションシステムが「銃による暴力を描写したグラフィックな内容」を検知していた。複数のレビュー担当者が経営陣に対し地元当局への通報を強く求めたが、経営陣はこれを拒否。代わりに加害者のアカウントを停止した。しかし、OpenAIは後に「加害者は新たなアカウントを開設し、サービスを継続利用した」と認めた。同社のカスタマーサービスは、アカウント停止後にユーザーに新規アカウントの作成を促していたことも判明している。

事件から約8カ月後、加害者は自宅で母親と義理の兄弟を殺害し、タンブラーリッジの学校に侵入。5人の生徒と1人の教師を射殺し、20人以上を負傷させた。被害にあった生徒の年齢は12〜13歳だった。

さらに、フロリダ州当局は4月に発生した銃乱射事件に関し、ChatGPTの関与について刑事捜査を開始した。同事件でも、加害者がChatGPTを使用していたことが明らかになっている。

専門家は「OpenAIの声明は、自社の技術が実際の犯罪に関与した事実を隠蔽する試みのように見える」と指摘。同社の対応に対する批判が高まっている。

出典: Futurism