カナダ・ブリティッシュコロンビア州タンブラーリッジで発生した銃撃事件の被害者家族が、AI企業OpenAIを相手に訴訟を起こした。事件の発生直後、OpenAIが地元当局に適切な情報提供を行わなかったと主張している。
この事件は先月、タンブラーリッジの住宅地で発生。犯人とみられる男性が銃を乱射し、3人が死亡、2人が負傷した。その後、男は自宅で自殺を図ったが未遂に終わった。
遺族側の代理人弁護士によると、事件発生直後にOpenAIが生成したAIチャットボットが、犯人の行動を助長するような情報を提供していた可能性があるという。また、事件当時、OpenAIが地元警察や当局に対し、犯人の行動パターンや使用された武器に関する重要な情報を共有していなかったと指摘している。
OpenAIの対応と謝罪
先週、OpenAIのCEOサム・アルトマン氏は、事件発生時に地元当局への通知が遅れたことを謝罪した。しかし、遺族側はこの謝罪を不十分と受け止め、法的措置に踏み切った。
アルトマン氏は声明で、「当社のシステムが事件に関与していた可能性があるとの報告を受け、直ちに調査を開始した。今後、同様の事態を防ぐための対策を講じる」と述べた。
AI技術の規制強化への動き
この事件を受け、カナダ政府はAI技術の規制強化に向けた議論を加速させている。特に、AIが生成するコンテンツの透明性や、犯罪行為への悪用防止策が焦点となっている。
専門家は、AI技術の進展に伴い、犯罪予防や捜査支援の面でAIの活用が期待される一方で、そのリスク管理が急務だと指摘する。今回の事件は、AI技術の倫理的・法的課題を浮き彫りにした形だ。
出典:
Engadget