منذ سنوات، كانت شركات التكنولوجيا الكبرى تسير بسرعة كبيرة في تطوير تقنيات الذكاء الاصطناعي دون وضع ضوابط كافية، مما أثار مخاوف بشأن المخاطر المحتملة مثل التهديدات الأمنية، وانتهاكات الخصوصية، وزعزعة الاستقرار في البنية التحتية الرقمية. لكن في الآونة الأخيرة، بدأت بعض هذه الشركات في اتخاذ موقف غير معتاد:她说 "لا".

شركة Anthropic هي واحدة من أبرز الأمثلة على هذا التحول، حيث أعلنت مؤخراً عن قرارها بعدم إطلاق نموذجها المتطور Claude Mythos Preview للعموم. بدلاً من ذلك، ستقتصر الوصول إلى هذا النموذج على مجموعة مختارة من الشركات الكبرى، بما في ذلك Amazon Web Services، وApple، وMicrosoft، وGoogle، وNVIDIA، وغيرها من الشركات التي تلعب دوراً حيوياً في بناء وصيانة البنية التحتية الرقمية الأساسية.

وأوضحت Anthropic أن الهدف من هذا القرار هو الدفاعي: استخدام النموذج لاكتشاف وتصحيح الثغرات الأمنية الخطيرة قبل أن تستغلها جهات غير مسؤولة. وقالت الشركة إن النموذج اكتشف بالفعل آلاف الثغرات الأمنية عالية الخطورة في جميع أنظمة التشغيل الرئيسية والمتصفحات الشهيرة.

هذا القرار لا يخلو من مصلحة ذاتية، إذ تفضل الشركات الكبرى أن تُنظر إليها على أنها حارسة للتكنولوجيا بدلاً من كونها مدمراً لها. كما أن تأخير إطلاق النموذج للعموم سيساعد في إبطاء سباق المحاكاة من قبل المنافسين. لكن الأهم من ذلك، أن هذا الموقف يمثل تحولاً ملحوظاً في صناعة كانت تدعي لسنوات أن كل قدرة جديدة يجب إطلاقها فوراً بحجة أن التقدم أمر حتمي.

مواجهة شركة Anthropic مع البنتاغون: حدود الاستخدام العسكري

لم يتوقف موقف شركة Anthropic عند هذا الحد، بل امتد ليشمل استخدامات عسكرية. recently، أعلنت الشركة أنها ستسمح باستخدام نماذجها في استثناءين ضيقين فقط في المجال العسكري: المراقبة الجماعية المحلية والأسلحة ذاتية التشغيل بالكامل.

فيما يتعلق بالمراقبة الجماعية، أوضح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، أن الذكاء الاصطناعي يمكن أن يحول البيانات التجارية المتاحة إلى صورة شاملة لحيات أي شخص بشكل آلي وعلى نطاق واسع. أما بالنسبة للأسلحة ذاتية التشغيل، فقد أكد أن الأنظمة المتطورة الحالية غير موثوقة بما يكفي لاتخاذ قرارات مستقلة مثل اختيار الأهداف وتنفيذها دون تدخل بشري.

على الرغم من أن شركة Anthropic لا تزال مستعدة لدعم الحكومة في معظم المهام العسكرية التقليدية، إلا أن موقفها المتمثل في فرض حدود واضحة على استخدام تقنياتها يعد خطوة ملحوظة ومثيرة للإعجاب. ومع ذلك، لم تلق هذه الخطوة ترحيباً من قبل البنتاغون، الذي أعلن أنه لن يتعاقد إلا مع شركات الذكاء الاصطناعي التي تقبل ببنود "أي استخدام قانوني" وتزيل أي ضوابط أمنية. وعندما رفضت Anthropic، قام وزير الدفاع بيت هاغسيث بتصنيف الشركة على أنها خطر على الأمن القومي، وهو تصنيف يثير العديد من التساؤلات حول مستقبل التعاون بين القطاعين العام والخاص في مجال الذكاء الاصطناعي.

"في صناعة كانت تدعي لسنوات أن كل قدرة جديدة يجب إطلاقها فوراً، أصبح من الضروري الآن أن نتعلم قول 'لا' لحماية مستقبلنا الرقمي."
المصدر: Reason