아카이브(arXiv)는 사전 출판(preprint) 논문을 공개하는 대표적인 학술 플랫폼으로, 최근 AI가 무분별하게 생성한 ‘슬롭’(slop)이 포함된 논문 증가에 대응하기 위한 새로운 규정을 발표했다.

아카이브 컴퓨터과학 분과 의장인 토마스 디터리히(Thomas Dietterich) 씨는 AI 모델인 LLM(대형 언어 모델)이 생성한 결과물을 연구자가 검증하지 않은 채 제출한 경우, 해당 논문의 저자에게 1년간 아카이브 이용 금지 조치를 내릴 것이라고 밝혔다. 구체적인 근거로는 허위 참고문헌, AI가 남긴 메타주석, 또는 LLM 생성 결과의 오류 등이 포함된다.

또한 앞으로 아카이브에 논문을 제출하려면 ‘유명한 동료 심사 학술지’에Accepted된 상태여야 한다는 추가 조건도 적용된다.

디터리히 의장의 경고

‘@arxiv 저자 여러분께: 아카이브의 행동강령에 따르면, 서명을 통해 귀하는 귀하의 논문이 진실하고オリジナル이며, 동료 검토를 거쳤다는 사실을 보증합니다.’

그는 X(구 트위터)에서 이와 같은 경고를 전하며, AI가 생성한 콘텐츠의 무분별한 사용이 학술 연구의 신뢰성을 훼손할 수 있음을 강조했다.

출처: The Verge