أصدرت مجموعة من الوكالات الحكومية الدولية، بما في ذلك وكالة الأمن السيبراني والبنية التحتية الأمريكية (CISA)، مبادئ توجيهية جديدة يوم الثلاثاء، تحدد العناصر الأساسية التي يجب أن تتضمنها قائمة مكونات الذكاء الاصطناعي لضمان أمنها وشفافيتها.
يُطلق على هذه القائمة اسم «فاتورة المواد البرمجية» (SBOM)، وهي قائمة تفصيلية بجميع المكونات التي تدخل في بناء أي برنامج أو نظام ذكي، مما يسهل تحديد المخاطر في سلاسل التوريد الأمنية. وقد ركز خبراء الأمن السيبراني مؤخرًا على كيفية تفاعلهم مع تقنيات الذكاء الاصطناعي، خاصة مع تزايد اعتماد المؤسسات عليها في مختلف القطاعات.
تهدف المبادئ التوجيهية الجديدة، التي أعدتها دول مجموعة السبع، إلى وضع معايير طوعية دنيا لما يجب أن تبدو عليه قوائم «SBOM» الخاصة بالذكاء الاصطناعي. وجاء في بيان صادر عن وكالة CISA: «على الرغم من عدم شموليتها أو إلزاميها، فإن العناصر الدنيا الإضافية المحددة في هذه المبادئ تعكس إجماع خبراء مجموعة السبع، وستتوسع مع مرور الوقت لمواكبة التقدم السريع في تكنولوجيا الذكاء الاصطناعي».
تشمل العناصر المحددة في المبادئ عدة فئات رئيسية، وهي:
- معلومات حول قائمة «SBOM» الخاصة بالذكاء الاصطناعي نفسها.
- بيانات النظام الذكي ككل.
- طرق تحديد النماذج المستخدمة في النظام الذكي.
- معلومات حول البيانات المستخدمة طوال دورة حياة النموذج.
- البنية التحتية المادية والافتراضية اللازمة لتشغيل النظام الذكي ودعمه.
- إجراءات الأمن السيبراني المطبقة على نماذج وأنظمة الذكاء الاصطناعي.
- مؤشرات الأداء الرئيسية للنظام الذكي.
أعرب ثلاثة من المهنيين في هذا المجال، الذين عملوا على تطوير قوائم «SBOM» للذكاء الاصطناعي (AIBOM)، عن ترحيبهم بالمبادئ التوجيهية الجديدة، مع التأكيد على أنها خطوة جيدة لكنها تحتاج إلى تحسينات.
«أصبحت معظم البرامج اليوم تحتوي على مكونات ذكاء اصطناعي، وعندما تشتري المستشفيات جهازًا طبيًا مدعومًا بالذكاء الاصطناعي، أو تشتري وزارة الدفاع أنظمة أسلحة مدعومة بالذكاء الاصطناعي، أو تضع شركات السيارات الذكاء الاصطناعي في سياراتها، نحتاج إلى القدرة على الوثوق بما يحتويه النظام من ذكاء اصطناعي».
— دانيال باردنشتاين، الرئيس التنفيذي لشركة Manifest Cyber
وأضاف باردنشتاين، الذي شارك في تطوير مولد «AIBOM» وعمل سابقًا مع وكالة CISA ومؤسسة OWASP: «الخطوة الأولى نحو الثقة هي تحديد ماهية هذا الذكاء الاصطناعي، ومصدره، وكيف تم تدريبه».
«هذه خطوة قوية ومثيرة للإعجاب نحو توحيد الجهود لفهم أن هذه هي المستقبل الذي يجب أن نفكر فيه عند بناء الثقة في الذكاء الاصطناعي».
— دانيال باردنشتاين
من جانبه، وصف ديمتري رايدمان، المؤسس المشارك والرئيس التنفيذي للتكنولوجيا في شركة Cybeats، المبادئ التوجيهية بأنها «رائعة»، لأنها تغطي ما بين 80% إلى 90% من المتطلبات اللازمة. وقال: «لم يكن هناك أي أساس مرجعي سابق، لكن هذه المبادئ ستضع أساسًا واضحًا».
على الجانب الآخر، أعرب باردنشتاين عن قلقه بشأن سهولة تطبيق هذه المبادئ من قبل المنظمات، بينما أشار رايدمان إلى أن المبادئ لا تعالج بشكل كافٍ مسألة المسؤولية القانونية عند حدوث ثغرات أمنية.