AI研究企業のOpenAIは、自社のAIモデルが「ゴブリン」「トロール」「オーガ」などの架空生物について言及しないよう訓練されていたことを公表した。米誌Wiredがこの問題を報じたことを受け、同社は公式ウェブサイトで説明文を発表した。
OpenAIによると、この現象はGPT-5.1モデル以降、特に「Nerdy(知的な)」パーソナリティ設定を使用した際に顕著になったという。同社は、この「奇妙な癖」がモデルの訓練過程で偶発的に生じた可能性を指摘している。
同社のブログ記事によれば、この問題はその後のモデルアップデートでさらに悪化する傾向にあったとされる。OpenAIは、この現象がAIの出力に及ぼす影響についても言及し、ユーザー体験の向上に向けた取り組みを進めるとしている。
「我々のモデルが特定の架空生物について言及しないよう制限することは、意図せぬ結果であった。これはAIの訓練データに含まれるパターンやバイアスが反映されたものと考えられる」
— OpenAI公式ブログより
この問題は、AIモデルの挙動に関する新たな議論を呼び起こしており、AI倫理やトレーニング手法の見直しが求められる可能性がある。
出典:
The Verge