カリフォルニア州の裁判所に水曜日(現地時間)に提出された7件の訴訟によると、OpenAIはカナダ史上最悪の学校銃乱射事件を防ぐ機会を逃していた可能性があるとされる。
これらの訴訟によれば、事件の実行犯と関連付けられたChatGPTアカウントが、実社会における銃暴力の現実的な脅威を示していたにもかかわらず、OpenAIは内部の安全チームによる警告を却下していたという。同社は通常、このような場合、警察に通報することが期待されていたが、今回はそれが行われなかった。
警察への通報を拒否したOpenAI
事件の8ヶ月以上前、専門家によってリスクが指摘されていたChatGPTアカウントについて、OpenAIは警察への通報を拒否していた。既に警察は実行犯に関するファイルを保持しており、自宅から銃器を事前に押収していたにもかかわらず、同社は「ユーザーのプライバシーと警察との接触によるストレスを考慮した」と、内部告発者がウォールストリート・ジャーナルに語った。
同社のリーダーらは安全チームの強い勧告を退け、法執行機関への通報を見送った。代わりにOpenAIはアカウントを一時停止した後、再びChatGPTを利用できるよう、別のメールアドレスで再登録する方法を実行犯に教えるなど、リスク軽減策を講じなかったと訴訟は主張している。
再登録を促すOpenAIの対応
訴訟資料によると、OpenAIはアカウントを停止した後、実行犯に対して「再びChatGPTを利用するには、別のメールアドレスで登録し直せばよい」と案内していたという。これにより、実行犯は引き続き同社のサービスを利用して計画を立てることが可能となった。
この一連の出来事は、AI企業の安全対策と法的責任に関する新たな議論を呼び起こす可能性がある。特に、AIサービスが暴力的な行動計画の策定に悪用された場合、企業がどのような責任を負うべきかが焦点となるだろう。