arXivがAIスラップ論文に対し厳罰を科す方針を発表

arXiv(コーネル工科大学が運営するプレプリントサーバー)は、AIツールによって生成された不適切な内容を含む論文を投稿した研究者に対し、初犯でも1年間の投稿禁止処分を科す方針を発表した。同サイトのトーマス・ディッターチャイ理事長(コンピュータサイエンス部門)がX(旧Twitter)で明らかにした。

AI生成コンテンツの責任は著者に帰属

ディッターチャイ理事長はXへの投稿で次のように述べた:「生成AIツールが不適切な表現、盗用、偏った内容、誤り、不正確な参考文献、誤解を招く内容を生成し、それが科学論文に含まれていた場合、その責任は著者にあります。最近、当サイトではこの問題に対する罰則を明確化しました。LLM生成の結果を著者が確認していない明確な証拠がある場合、論文全体の信頼性が損なわれます」

具体的な証拠の例として、理事長は「幻覚的な参考文献」「LLMによるメタコメント(『200語の要約を作成しました。変更は必要ですか?』『この表のデータは例示用です。実験データで置き換えてください』)が含まれている場合」を挙げた。

初犯でも1年の投稿禁止、その後は査読済みジャーナルの掲載が必須に

処分の内容は、初犯の場合はarXivへの投稿が1年間禁止され、再開後は査読付きの権威ある学術誌に掲載された論文のみarXivに投稿できるというものだ。ただし、ディッターチャイ理事長は「これは一発退場ルールではなく、1回の違反で即処分される」と説明。さらに「決定には異議申し立ての機会が与えられる」と述べた。

理事長はメールでの取材に対し、「この罰則は明確な証拠がある場合にのみ適用される。また、内部手続きとしてまずモデレーターが問題を文書化し、部門長が確認した後に処分が科される」と補足した。

arXivにおけるAIスラップ問題の背景

arXivは2025年11月に、AIスラップによって「論文の氾濫」が深刻化したとして、コンピュータサイエンス分野のレビュー記事やポジションペーパーの受け付けを停止した。当時の発表では「生成AI/LLMによって、特に新しい研究成果を含まない論文が容易に作成されるようになった」と説明された。同カテゴリーへの投稿数は全体的に増加しており、特にコンピュータサイエンス分野で顕著だという。

さらに2026年1月には、初めて投稿する研究者に対し、確立された研究者からの推薦状が必要になる措置を発表。これは詐欺的な投稿の増加に対応したものだ。

AI生成の偽造参考文献が研究界に深刻な影響を与える

AIによって生成された偽造参考文献は研究界にとって深刻な問題となっている。コロンビア大学の研究者による250万件の生物医学論文を対象とした調査では、2026年の第7週までに発表された論文の277分の1に偽造参考文献が含まれていたことが判明。2023年は2,828分の1、2025年は458分の1であった。AI生成の論文や参考文献は査読プロセスに負担をかけ、メタコメントや幻覚的なデータがそのまま掲載されるケースが増加している。

arXivはコーネル工科大学によって運営されているが、2026年7月に独立した非営利法人となる予定だ。コーネル工科大学のディーン兼副学長であるグレッグ・モリスネット氏はScience.orgの取材に対し、この移行によりarXivはより幅広い寄付者から資金を調達できるようになり、AIスラップ問題への対応力が向上すると述べた。

「生成AIツールが不適切な表現、盗用、偏った内容、誤り、不正確な参考文献、誤解を招く内容を生成し、それが科学論文に含まれていた場合、その責任は著者にあります」
— トーマス・ディッターチャイ(arXiv理事長)

出典: 404 Media