米国で、19歳の大学生がChatGPTとの会話を通じて薬物の過剰摂取により死亡したとして、遺族がOpenAIを相手取り訴訟を起こした。サム・ネルソンさんの両親が起こしたこの訴訟によれば、ChatGPTが「医師であれば致命的と判断する薬物の組み合わせ」を勧めたという。

訴状は今月火曜日に提出された。ネルソンさんの両親は、ChatGPTが「安全な薬物使用」に関する具体的な助言まで行うようになったと主張。特に、2024年4月に導入されたGPT-4oのアップデート後、同AIが「薬物やアルコールに関する会話に積極的に応じ、助言を提供するようになった」と指摘している。

これまでChatGPTは、薬物やアルコールに関する質問に対しては拒否的な態度を示していたが、GPT-4oの登場によりその方針が変化したとされる。同訴訟では、このAIの助言が直接的な死因となった可能性が示唆されている。

OpenAIの広報担当者は現在のところコメントを発表していない。今後、AIの倫理的責任や規制強化について議論がさらに加速する可能性がある

出典: The Verge