تحذير عاجل من خمس دول كبرى بشأن أنظمة الذكاء الاصطناعي المستقلة
أصدرت وكالات الأمن السيبراني في الولايات المتحدة، أستراليا، كندا، نيوزيلندا والمملكة المتحدة، إرشادات مشتركة تحذّر من المخاطر الأمنية التي تشكلها أنظمة الذكاء الاصطناعي المستقلة، المعروفة باسم "الذكاء الاصطناعي العامل". وتحثّ المنظمات على التعامل مع هذه الأنظمة كأولوية أمنية قصوى، خاصة بعد انتشارها في البنية التحتية الحيوية والدفاعية دون ضوابط كافية.
ما هو الذكاء الاصطناعي العامل؟
الذكاء الاصطناعي العامل هو نوع من البرمجيات المبنية على نماذج اللغة الكبيرة، والتي تتمتع بقدرة على التخطيط واتخاذ القرارات وتنفيذ مهام متعددة الخطوات بشكل مستقل، دون الحاجة إلى مراجعة بشرية في كل مرحلة. وللقيام بذلك، يتصل هذا النظام بأدوات خارجية وقواعد بيانات وأنظمة ذاكرة وتدفقات عمل آلية.
إرشادات الأمن السيبراني الجديدة
تم إعداد الإرشادات المشتركة من قبل ست وكالات أمن سيبراني كبرى:
- وكالة الأمن السيبراني والبنية التحتية الأمريكية (CISA)
- وكالة الأمن القومي الأمريكية (NSA)
- مركز الأمن السيبراني الأسترالي (ACSC)
- مركز الأمن السيبراني الكندي (CCCS)
- مركز الأمن السيبراني الوطني النيوزيلندي (NCSC NZ)
- مركز الأمن السيبراني الوطني البريطاني (NCSC UK)
وتؤكد الإرشادات أن أنظمة الذكاء الاصطناعي العامل لا تتطلب إطار أمني جديد بالكامل، بل يجب دمجها في الأطر الأمنية الحالية مثل الثقة الصفرية، والدفاع المتعمق، وأقل الامتيازات.
أبرز المخاطر التي حددتها الإرشادات
حددت الوكالات خمس فئات رئيسية للمخاطر المرتبطة بأنظمة الذكاء الاصطناعي العامل:
1. مخاطر الامتيازات
عند منح الأنظمة صلاحيات واسعة، قد يتسبب اختراق واحد في أضرار جسيمة مقارنة بثغرة أمنية عادية في البرمجيات التقليدية.
2. مخاطر التصميم والإعداد
الأخطاء في إعداد النظام قبل التشغيل قد تخلق ثغرات أمنية قبل حتى بدء العمل.
3. مخاطر السلوك غير المتوقع
قد تتبع الأنظمة أهدافاً لم يتوقعها مصمموها، مما يؤدي إلى نتائج غير مرغوب فيها.
4. المخاطر الهيكلية
شبكات متصلة من الأنظمة قد تتسبب في فشل متسلسل ينتشر عبر أنظمة المؤسسة بأكملها.
5. مخاطر المساءلة
صعوبة تتبع قرارات الأنظمة بسبب عمليات اتخاذ القرار المعقدة وسجلات الأحداث غير القابلة للفهم، مما يعيق تحديد أسباب الأخطاء.
وأشارت الإرشادات إلى أن فشل هذه الأنظمة قد يؤدي إلى عواقب مادية مثل تعديل الملفات، تغيير صلاحيات الوصول، أو حذف سجلات التدقيق.
التهديدات المحددة: حقن الأوامر الخبيثة
أبرزت الإرشادات مشكلة حقن الأوامر الخبيثة، حيث يمكن لل educations المخفية داخل البيانات أن توجه النظام لأداء مهام ضارة. وقد اعترفت بعض الشركات بأن هذه المشكلة قد لا يتم حلها بالكامل.
إدارة الهوية: حجر الزاوية في الأمن
أكدت الإرشادات على أهمية إدارة الهوية، حيث أوصت بأن يحمل كل نظام هوية مشفرة وآمنة، ويستخدم أوراق اعتماد قصيرة الأجل، ويشفّر جميع الاتصالات مع الأنظمة الأخرى والخدمات. كما شددت على ضرورة موافقة بشرية للمهام ذات التأثير الكبير، مع تحديد هذه المهام من قبل مصممي النظام وليس النظام نفسه.
نداء عاجل للتطوير والتعاون
أقرّت الوكالات بأن مجال الأمن السيبراني لم يلحق بعد بتطور أنظمة الذكاء الاصطناعي العامل. بعض المخاطر الفريدة لهذه الأنظمة لا تزال خارج الأطر الحالية، مما يدعو إلى مزيد من الأبحاث والتعاون الدولي مع تزايد دور هذه الأنظمة في العمليات التشغيلية.
حتى نضج ممارسات الأمن السيبراني وطرق التقييم والمعايير، يجب على المنظمات افتراض أن أنظمة الذكاء الاصطناعي العامل ستواجه تهديدات غير متوقعة.