أعلن أرشيف أركسيف، أكبر مستودع مفتوح الوصول للأبحاث الأكاديمية الأولية، عن عقوبة جديدة ستطال الباحثين الذين يقدمون أبحاثاً واضحة أنها مولدة بواسطة أدوات الذكاء الاصطناعي. وقال توماس ديتيريتش، رئيس قسم علوم الحاسوب في أرشيف أركسيف، في منشور له على منصة إكس: «إذا أنتجت أدوات الذكاء الاصطناعيGenerated AI languages محتوى غير لائق أو منسوخ أو متحيز أو يحتوي على أخطاء أو معلومات مضللة، فإن مسؤولية التحقق من صحة هذا المحتوى تقع على عاتق المؤلفين».
وأضاف ديتيريتش أن المنصة قد وضحت عقوباتها الأخيرة في هذا الصدد، مشيراً إلى أنه في حال وجود أدلة قاطعة على أن الباحثين لم يتحققوا من نتائج توليد نماذج اللغة الكبيرة، فإن ذلك يعني فقدان الثقة في البحث بأكمله. ومن الأمثلة على الأدلة القاطعة التي ذكرها: «المراجع الوهمية، أو التعليقات التي تصدرها نماذج الذكاء الاصطناعي مثل: «إليك ملخصاً مكوناً من 200 كلمة، هل تريد إجراء أي تعديلات؟»، أو «البيانات في هذا الجدول توضيحية، قم بملئها بالأرقام الحقيقية من تجاربك».
وتتمثل العقوبة في حظر الباحثين لمدة عام كامل عن تقديم أي أبحاث جديدة إلى أرشيف أركسيف، بالإضافة إلى اشتراط موافقة منشوراتهم المستقبلية على مراجعة من قبل جهة علمية محكّمة قبل نشرها. وأكد ديتيريتش في تصريح له أن هذه العقوبة هي «ضربة واحدة»، أي أن الباحث سيحظر حتى لو تم اكتشاف الحالة الأولى من الإخلال. ومع ذلك، أشار إلى أن القرارات قابلة للاستئناف، وقال: «أريد التأكيد على أن هذه العقوبة تطبق فقط في حالات وجود أدلة قاطعة، كما أن العملية الداخلية تتطلب أولاً توثيق المشكلة من قبل المشرفين ثم تأكيدها من قبل رئيس القسم قبل فرض العقوبة».
أرشيف أركسيف يتصدى لظاهرة «السلطة الزائفة» في الأبحاث
في نوفمبر 2025، أعلن أرشيف أركسيف عن رفضه قبول مقالات مراجعة أو أوراق موقف في مجال علوم الحاسوب بسبب «الفيضان» المتزايد من الأبحاث المولدة بالذكاء الاصطناعي. وقال أرشيف أركسيف في بيان صحفي آنذاك: «أدت نماذج اللغة الكبيرة إلى تسهيل كتابة الأبحاث بسرعة، خاصة تلك التي لا تقدم نتائج بحثية جديدة». كما أشار إلى أن جميع فئات الأبحاث في أرشيف أركسيف شهدت زيادة كبيرة في عدد الأبحاث المقدمة، إلا أن هذا الارتفاع كان ملحوظاً بشكل خاص في قسم علوم الحاسوب.
وفي يناير من العام الحالي، أعلن أرشيف أركسيف عن اشتراط موافقة باحث مخضرم على الأبحاث المقدمة لأول مرة، وذلك بسبب تزايد حالات الاحتيال في الأبحاث المقدمة. وتعد مشكلة المراجع المزيفة التي تولدها الذكاء الاصطناعي من أكبر التحديات التي تواجه عملية مراجعة الأبحاث. ففي دراسة حديثة أجراها باحثون من جامعة كولومبيا، تم فحص 2.5 مليون ورقة بحثية في المجال الطبي على مدى ثلاث سنوات، ووجدت الدراسة أن واحدة من كل 277 ورقة بحثية نشرت في الأسابيع السبعة الأولى من عام 2026 احتوت على مراجع مزيفة، مقارنة بواحدة من كل 2,828 ورقة في عام 2023، وواحدة من كل 458 ورقة في عام 2025.
ويُذكر أن أرشيف أركسيف يديره معهد كورنيل للتكنولوجيا، إلا أنه سيصبح في يوليو من هذا العام مؤسسة مستقلة غير ربحية. وقال غريغ موريسيت، عميد ومدير جامعة كورنيل للتكنولوجيا، لموقع Science.org: «ستساعد هذه الخطوة أرشيف أركسيف على جمع المزيد من التمويل من مجموعة أوسع من الجهات المانحة، وهو أمر ضروري لمواجهة ظاهرة «السلطة الزائفة» التي تسببها الأبحاث المولدة بالذكاء الاصطناعي».