科学研究の分野で、AIが生成した不適切なコンテンツが問題視されている。arXiv(コーネル大学が運営する物理学・天文学のプレプリントサーバー)は、AI生成の虚偽情報や不正確な内容を含む投稿に対し、厳格な措置を導入する方針を発表した。

具体的には、不適切なAI生成コンテンツの投稿者に対し、1年間の投稿禁止処分を科すと同時に、将来の投稿時には必ず査読を受ける義務を課すことが明らかになった。この措置は、AIスラップ(AIが生成した低品質なコンテンツ)が科学誌に浸透する問題への対応策として注目される。

arXiv関係者による発表

この方針を発表したのは、オレゴン州立大学名誉教授のThomas Dietterich氏。同氏はarXivの編集顧問委員会およびモデレーションチームのメンバーとして活動しており、arXivの運営方針に深く関与している。Dietterich氏はソーシャルメディア上で、この新たなルールを発表した。

また、arXivの運営チームに対し、正式な確認を求めたが、現時点で公式なコメントは得られていない。

科学界におけるAIスラップ問題

近年、AIが生成した論文や図表、引用文献が科学誌に掲載されるケースが増加している。これらの多くは、事実誤認、根拠のない主張、あるいは明らかな虚偽情報を含んでおり、査読プロセスをすり抜けることも少なくない。arXivの措置は、こうした問題に対する早期の規制強化の一環と位置付けられる。

科学界では、AIツールの活用が進む一方で、その品質管理が課題となっている。arXivの新たなルールは、AI生成コンテンツの適切な管理に向けた重要な一歩とみなされている。