أكدت القيادة السيبرانية الأمريكية (USCYBERCOM) عزمها على اختبار ونشر أقوى نماذج الذكاء الاصطناعي المتاحة، بغض النظر عن خلفيتها السياسية أو بلد المنشأ. جاء ذلك على لسان الضابط المسؤول عن الذكاء الاصطناعي في القيادة، الجنرال ريد نوفوتني، خلال حديثه مع صحيفة Axios.
وأوضح نوفوتني أن القيادة تعمل على بناء بنية تحتية مرنة تسمح بتبديل النماذج بسهولة، سواء كانت من شركات أمريكية أو أجنبية، بما في ذلك النماذج مفتوحة المصدر أو تلك المصنوعة في الصين. وقال:
"لنجاة أنفسنا في أي مكان، وحتى لو أراد مشغلونا استخدام نموذج مفتوح المصدر مصنوع في الصين أو نموذج متخصص، يجب علينا إنشاء البنية التحتية اللازمة وقدرتنا على التكيف — دون تدخل سياسي."
وأضاف:
"مشغلونا جاهزون تمامًا لتلبية احتياجاتهم الحالية."
الخلفية السياسية والتحديات
أشار نوفوتني إلى أن بعض الشركات، مثل Anthropic، تواجه خلافات مع البنتاغون، مما يعقد نشر أحدث نماذجها داخل الحكومة الأمريكية. فعلى سبيل المثال، ما زالت البيت الأبيض تتفاوض للحصول على وصول إلى نموذج Mythos Preview من Anthropic، والذي تحتفظ الشركة به بسبب قدراته في الاختراق السيبراني. حاليًا، لا تتوفر سوى مجموعة محدودة من الوكالات الحكومية، مثل وكالة الأمن القومي (NSA) ومعهد اختبار الذكاء الاصطناعي التابع لوزارة التجارة، على وصول إلى هذا النموذج، في حين لا تزال وكالة الأمن السيبراني والبنية التحتية (CISA) خارج القائمة.
من جهة أخرى، تستغل شركة OpenAI هذا الخلاف وتسارع إلى التعاون مع المكاتب الحكومية الفيدرالية والدولية لتسويق منتجها المنافس، GPT-5.4-Cyber.
الاستثمار في الذكاء الاصطناعي
أشار نوفوتني إلى أن عام 2026 سيكون الأول الذي تخصص فيه القيادة السيبرانية تمويلًا رسميًا لبرامج الذكاء الاصطناعي، بعد سنوات من التحضير داخل البنتاغون والكونغرس. وتستخدم القيادة هذه الأموال لاختبار قدرات الذكاء الاصطناعي التجارية، مع بناء بنية تحتية أساسية تسمح للمشغلين بالتبديل بين النماذج مع تطور التكنولوجيا.
وأكد أن هذه المرونة تشمل حتى النماذج التي طورتها دول خارج الولايات المتحدة.
دور الذكاء الاصطناعي في العمليات العسكرية
يعتبر نوفوتني، الذي يعد أول ضابط ذكاء اصطناعي في القيادة السيبرانية، مسؤولًا عن دمج الذكاء الاصطناعي في العمليات السيبرانية الهجومية والدفاعية. ويشمل ذلك استخدام النماذج لتسريع العمليات ومعالجة كميات كبيرة من البيانات الاستخباراتية، مع تحمل المخاطر الكامنة في المهام العسكرية.
وقال خلال مشاركته في ندوة:
"الهدف الأساسي لجيشنا، على نطاق معين، هو أن نكون أقل أمانًا وأكثر خطورة قليلًا."
المخاوف الأخلاقية والتشريعية
أثار البعض مخاوف بشأن احتمال أن تقوم أنظمة الذكاء الاصطناعي بتحديد أهداف مدنية بشكل خاطئ أو غير مناسب. لكن نوفوتني أكد أن هذه المخاطر تخضع للقوانين العسكرية الحالية، وليس لسياسات جديدة خاصة بالذكاء الاصطناعي. وقال:
"إذا قمنا بتدريب نموذج لاستهداف دولة بأكملها، فإننا نعرف مسبقًا الأهداف المحظورة مثل المستشفيات والمدارس."
وأضاف:
"نحن نعرف ما يجب فعله وما لا يجب فعله، ثم نثبت ذلك، مما يضمن أن النموذج يفعل ما نأمر به."
وأكد أن القيادة لا تتجاهل هذه المخاوف، لكنها تعرف كيفية تطبيق القيم الأخلاقية والقوانين عند تبني تقنيات جديدة.
وفي ختام حديثه، أشار إلى أن القيادة تختبر مستويات مختلفة من الإشراف البشري، لكنها لم تصل بعد إلى مرحلة الاستقلالية الكاملة للنظم.