اتفاقية سرية بين غوغل والبنتاغون حول الذكاء الاصطناعي
أفادت مجلة The Information بأن شركة غوغل وقعت اتفاقية سرية مع وزارة الدفاع الأمريكية تسمح باستخدام نماذجها للذكاء الاصطناعي في أي غرض حكومي قانوني. ويُذكر أن هذه الاتفاقية تأتي في ظل مطالبات داخلية من موظفي غوغل بمنع البنتاغون من الوصول إلى تقنياتها.
وأشار الموظفون في رسالة إلى الرئيس التنفيذي سوندار بيشاي إلى مخاوفهم من استخدام هذه التقنيات في أغراض قد تكون «غير إنسانية أو ضارة للغاية».
توقيت الاتفاقية بعد مطالبات الموظفين
جاءت هذه الاتفاقية بعد أقل من 24 ساعة من مطالبة موظفي غوغل بيشاي بمنع البنتاغون من استخدام تقنيات الذكاء الاصطناعي التابعة للشركة. وأكدت التقارير أن الاتفاقية تسمح باستخدام النماذج في أي غرض حكومي قانوني، مما يضع غوغل في قائمة الشركات التي أبرمت اتفاقيات سرية مماثلة مع الحكومة الأمريكية.
شركات أخرى أبرمت اتفاقيات مماثلة
إذا تم تأكيد هذه الاتفاقية، فإن غوغل ستنضم إلى كل من OpenAI وxAI اللتين أبرمتا اتفاقيات سرية مماثلة مع وزارة الدفاع الأمريكية. في المقابل، كانت شركة Anthropic ضمن القائمة لكنها أُزيلت بعد رفضها تلبية مطالب البنتاغون بإزالة بعض القيود على استخدام تقنياتها.
مخاوف الموظفين من الاستخدامات الضارة
أعرب موظفو غوغل عن قلقهم من أن استخدام البنتاغون لتقنيات الذكاء الاصطناعي قد يؤدي إلى تطبيقات ضارة أو غير أخلاقية. وشددوا على ضرورة وضع ضوابط صارمة لمنع مثل هذه الاستخدامات.
ويأتي هذا التطور في ظل الجدل المتزايد حول استخدام تقنيات الذكاء الاصطناعي في الأغراض العسكرية والأمنية، خاصة بعد انتشار تقارير حول تطوير أنظمة مستقلة قادرة على اتخاذ قرارات قتالية.
ردود الفعل على الاتفاقية
لم تعلق غوغل أو البنتاغون رسمياً على هذه التقارير حتى الآن. من المتوقع أن تثير هذه الخطوة جدلاً واسعاً بين الموظفين والمسؤولين في القطاع التكنولوجي، خاصة مع تزايد المطالبات بتنظيم استخدام الذكاء الاصطناعي في المجالات الحساسة.
«إذا تم تأكيد هذه الاتفاقية، فإنها ستعزز دور غوغل في دعم الجهود العسكرية الأمريكية، لكنها قد تزيد من المخاوف بشأن استخدام الذكاء الاصطناعي في أغراض غير أخلاقية».
آثار محتملة على القطاع التكنولوجي
من المتوقع أن تثير هذه الاتفاقية تساؤلات حول مدى التزام شركات التكنولوجيا بمسؤولياتها الأخلاقية تجاه استخدام تقنياتها. كما قد تدفع المزيد من الموظفين إلى المطالبة بوضع حدود واضحة لاستخدام الذكاء الاصطناعي في الأغراض العسكرية.
وفي ظل التوسع السريع لتقنيات الذكاء الاصطناعي، تزداد الحاجة إلى إطار تنظيمي شامل يضمن عدم استخدامها في أغراض ضارة أو غير قانونية.