اكتشاف ثغرات أمنية خطيرة دفع أنثروبيك إلى وقف إطلاق نموذجها المتطور
أعلنت شركة أنثروبيك، الرائدة في مجال الذكاء الاصطناعي، قرارها بعدم إطلاق نموذجها المتطور “ميثوس” للجمهور بسبب اكتشافه آلاف الثغرات الأمنية غير المعروفة في أنظمة التشغيل الرئيسية والمتصفحات. هذه الثغرات، التي ظلت مخفية لقرابة ثلاثة عقود، تمثل خطرًا كبيرًا إذا تم استغلالها من قبل مهاجمين.
أوضحت أنثروبيك أن النموذج قادر على اكتشاف الثغرات وعلاجها، لكن نفس القدرات يمكن أن تُستخدم لاستغلالها. warned أن وكيل ذكاء اصطناعي واحد يمكنه مسح أنظمة الدفاع الرقمية بشكل أسرع وأكثر استمرارية من مئات القراصنة البشر مجتمعين.
نظام الأمان القديم يواجه تحديًا من الذكاء الاصطناعي
تأتي هذه الخطوة في وقت تتسابق فيه الشركات لتطوير أنظمة ذكاء اصطناعي مستقلة لأداء مهام مثل جدولة المواعيد وكتابة الأكواد وإدارة سير العمل. لكن هذه الأنظمة نفسها قادرة على اختراق الدفاعات الرقمية بسرعة لم يسبق لها مثيل.
تستند معظم أنظمة الأمان الحالية إلى نموذج صممه عصر “البشر خلف الشاشات”. على سبيل المثال، كانتかつて، يمكنك الجلوس أمام جهاز الكمبيوتر، وتسجيل الدخول باستخدام اسم المستخدم وكلمة المرور المكتوبة على ورقة لاصقة، ثم الذهاب لتناول فنجان من القهوة أثناء فتح المتصفح نافذة إلى العالم الرقمي.
تطورت أنظمة الأمان لاحقًا لتشمل كلمات المرور، وأسئلة الأمان، والمسح الحيوي، والمصادقة الثنائية، لكنها все же تستند إلى افتراض أساسي واحد: أن هناك شخصًا حقيقيًا خلف الشاشة. لكن الذكاء الاصطناعي يكسر هذا الافتراض من ناحيتين في آن واحد.
الذكاء الاصطناعي كمساعد شرعي
تستخدم الشركات الذكاء الاصطناعي كمساعدين رقميين يقومون نيابة عنك بمهام مثل:
- OpenAI’s Operator: يتنقل عبر المواقع الإلكترونية نيابة عنك.
- Google’s Gemini: يخطط لعطلتك العائلية أثناء نومك.
- Visa’s Intelligence Commerce Connect: يقوم بشراء المنتجات نيابة عنك.
هذه ليست تجارب أو أفكارًا نظرية، بل منتجات حقيقية تعمل نيابة عن أشخاص حقيقيين وتحتاج إلى هويتك للقيام بذلك.
الذكاء الاصطناعي كمتسلل خبيث
في الوقت نفسه، يمكن للمهاجمين استخدام الذكاء الاصطناعي للتظاهر بأنهم بشر على نطاق واسع. فالأمر لا يتعلق باختراق الأنظمة، بل بالتسجيل من خلالها باستخدام بيانات اعتماد مشتركة أو بوابات توظيف أو منصات تعاون. معظم المؤسسات لا تزال تعامل الهوية كمشكلة تسجيل دخول، решаема من خلال كلمات مرور أقوى أو خطوات مصادقة إضافية. لكن التحدي الحقيقي الآن هو معرفة من أو ماذا تم السماح له بالدخول بالفعل.
التمييز بين البشر والآلات أصبح مسألة حياة أو موت رقمية
عندما يختفي التمييز بين البشر والآلات، تصبح الأضرار واضحة:
- إذا لم تتمكن أنظمة المشتريات من التمييز بين مدير بشري وكيل ذكاء اصطناعي خبيث، فقد يتم إصدار أوامر شراء بموجب سلطة مزورة.
- إذا لم تتمكن سجلات الامتثال من تحديد كيفية اتخاذ قرار ما، فقد تتعرض الشركات لخسائر مالية وقانونية.
المشكلة لا تكمن في نقص التكنولوجيا، بل في عدم استعداد الأنظمة الحالية للتعامل مع واقع جديد حيث لا يوجد بشر خلف كل عملية.
المستقبل: هل نحن مستعدون؟
تتطلب هذه التحديات إعادة تقييم جذرية لأنظمة الهوية والأمان. يجب على الشركات:
- تطوير أنظمة تمييز: قادرة على التمييز بين البشر والآلات بناءً على سلوكياتهم وأنماطهم.
- إعادة تصميم نماذج الأمان: تتجاوز مجرد المصادقة الثنائية إلى أنظمة قادرة على رصد الأنشطة المشبوهة في الوقت الفعلي.
- تعزيز التعاون: بين فرق الأمن والتطوير لضمان أن الأنظمة الجديدة آمنة منذ البداية.
في عالم يتزايد فيه اعتمادنا على الذكاء الاصطناعي، أصبح السؤال ليس “ماذا يمكن للذكاء الاصطناعي أن يفعل؟”، بل “كيف يمكننا ضمان أن يفعل الخير فقط؟”.