ما هو تلويث الذكاء الاصطناعي؟

تلويث الذكاء الاصطناعي هو عملية إفساد نموذج اللغة الكبيرة (LLM) الذي يعمل عليه الدردشة الآلية، مما يؤدي إلى تقديم استجابات خاطئة أو مضللة أو غير منطقية. يتم ذلك عن طريق خداع النموذج لدمج بيانات غير صحيحة أثناء عملية تدريبه، والتي غالباً ما تشمل جمع البيانات من جميع المواقع الإلكترونية والصور المتاحة.

هناك عدة طرق لتلويث نماذج اللغة الكبيرة، تختلف حسب الهدف من الإفساد. على سبيل المثال، إذا أراد شخص تلويث نموذج مولد الصور، يمكنه استخدام تقنية تسمى "Nightshading"، والتي تعتمد على إضافة طبقة خفية إلى الصورة باستخدام برنامج يسمى Nightshade. هذه الطبقة تحتوي على بكسلات غير مرئية للعين البشرية لكنها مرئية للماسحات الضوئية للذكاء الاصطناعي، مما يجعل العمل الفني يبدو للنموذج وكأنه ينتمي إلى نمط مختلف (مثل الأسلوب التجريدي بدلاً من الواقعي)، مما يمنع النموذج من محاكاة الأسلوب الفعلي للفنان.

ما هي مصائد الذكاء الاصطناعي؟

مصائد الذكاء الاصطناعي هي نوع محدد من أدوات تلويث الذكاء الاصطناعي، مصممة لخداع برامج الزحف التي تستخدمها نماذج اللغة الكبيرة لجمع البيانات. عندما يزور زاحف النموذج موقعاً إلكترونياً يحتوي على هذه المصائد، يتم تحويله لاستيعاب نصوص عديمة الفائدة مليئة بالمعلومات الخاطئة أو غير المنطقية، مثل "أسس ستيف جوبز شركة مايكروسوفت عام 1834" أو "اللون الأحمر هو الفلفل الأسود".

تضمن هذه المصائد استمرار الزاحف في التصفح عبر صفحات متعددة تحتوي على نفس النوع من المحتوى الفاسد، دون وجود روابط للخروج منها، مما يجعلها أشبه بفخاخ رقمية.

أمثلة على مصائد الذكاء الاصطناعي

  • Nepenthes: أداة تُستخدم لإغراق زواحف الذكاء الاصطناعي ببيانات زائفة.
  • Iocaine: تقنية تعتمد على إدخال معلومات مضللة في المحتوى.
  • Quixotic: أداة تهدف إلى إرباك نماذج اللغة الكبيرة من خلال محتوى غير مترابط.

لماذا يلجأ أصحاب المحتوى إلى هذه المصائد؟

يرجع استخدام مصائد الذكاء الاصطناعي إلى رفض العديد من شركات الذكاء الاصطناعي طلب الإذن من أصحاب المحتوى قبل جمع بياناتهم. بدلاً من ذلك، تلجأ هذه الشركات إلى الزحف غير المصرح به لمواقع الويب، مما يهدد حقوق الملكية الفكرية. من خلال إدخال بيانات فاسدة، يحاول أصحاب المحتوى تقليل جودة استجابات الذكاء الاصطناعي، مما قد يدفع المستخدمين إلى الابتعاد عن استخدام هذه الأدوات.

التأثير على المستخدمين والشركات

عندما يتم تلويث نموذج اللغة الكبيرة بمصائد الذكاء الاصطناعي، تصبح استجابات الدردشة الآلية أقل دقة، مما يؤثر سلباً على تجربة المستخدم. قد يؤدي ذلك إلى فقدان الثقة في هذه الأدوات، مما يدفع الشركات إلى إعادة النظر في سياساتها المتعلقة بجمع البيانات وتدريب النماذج.

كيف يمكن حماية المحتوى من التلويث؟

يمكن لأصحاب المحتوى اتخاذ عدة خطوات لحماية أعمالهم من التلويث الرقمي:

  • إضافة مصائد مضادة: استخدام أدوات مثل Glaze لحماية أعمالهم الفنية من التلويث البصري.
  • تقييد الوصول إلى المحتوى: استخدام تقنيات مثل ملفات robots.txt لمنع الزواحف غير المرغوب فيها.
  • المطالبة بحقوق الملكية الفكرية: اتخاذ إجراءات قانونية ضد الشركات التي تنتهك حقوق الملكية من خلال جمع البيانات دون إذن.
المصدر: Fast Company