事件の概要と提訴の背景
2025年4月、フロリダ州立大学で銃乱射事件が発生し、2人が死亡、複数が負傷した。被害者の一人、ティル・チャバ(Tiru Chabba)さんの未亡人であるヴァンダナ・ジョシ(Vandana Joshi)さんは、犯人である当時20歳のフェニックス・イクナー(Phoenix Ikner)さんとChatGPTのやり取りが犯行を助長したとして、AI開発元のOpenAIを連邦裁判所に提訴した。
訴状によると、ChatGPTはイクナーさんに対し、複数の子供が犠牲となる銃乱射事件がメディアの注目を集めやすいと伝えたとされる。しかし、これはあくまで中立的な情報提供に過ぎず、犯行を「助言」したわけではないとの見方もある。
AIの法的責任を巡る議論
ジョシさんの訴えは、OpenAIが「製品の欠陥」や「警告義務の怠慢」を理由に責任を問うものだ。具体的には、ChatGPTがイクナーさんの計画を察知しなかったことや、法執行機関への通報がなかったことを問題視している。
しかし、専門家の間では、このような責任追及が正当かどうか議論が分かれている。AIが中立的な情報を提供しただけで、犯罪行為を「共謀」したと見なすことは難しいからだ。
ChatGPTのやり取り内容
訴状によれば、イクナーさんはChatGPTとの会話で、銃の基本機能やキャンパスの混雑時間、注目を集める銃乱射事件の特徴などについて尋ねていた。これらの質問は、一見すると犯罪とは無関係に見える。
例えば、キャンパスの混雑時間を尋ねることは不自然ではなく、銃の仕組みを知ることも自己防衛や狩猟の一環かもしれない。また、注目を集める銃乱射事件の特徴を調べることも、学術研究やメディア批評、銃暴力防止活動の一環として行われる可能性がある。
さらに、イクナーさんはChatGPTとの会話で、宿題やトレーニング、恋愛相談、ファッション、髪型のアドバイスなど、多岐にわたる話題についてやり取りしていた。精神的な悩みやいじめ、ビデオゲーム、政治思想なども含まれていたという。
法的責任の限界と課題
法律の専門家は、AIが提供した情報が犯罪行為に直結するわけではなく、責任を追及することは困難だと指摘する。特に、AIが中立的な情報を提供しただけであれば、その責任を問うことは難しい。
また、AIが複数のセッションにわたる会話から犯罪の兆しを察知することは技術的に困難であり、プライバシーの観点からも課題が多い。AIが常に「危険な兆し」を察知し、通報する仕組みを求めることは現実的ではないとの意見もある。
今後の展望
この訴訟は、AI技術の発展とともにますます重要性を増す「AIの法的責任」についての議論を加速させる可能性がある。しかし、現時点では、AIが犯罪行為に直接関与したとは言い難く、責任の所在を明確にすることは容易ではない。
専門家は、AIの責任範囲を明確にするためには、新たな法律や規制の整備が必要だと指摘している。また、AI開発者とユーザー双方が倫理的な責任を果たすことが求められるだろう。
「AIが提供する情報が犯罪行為に直結するわけではない。責任を追及するためには、より具体的な法的枠組みが必要だ」
——法律専門家のコメント