ChatGPT يتورط في تخطيط مجزرتين.. وتحقيق يكشف فشل إجراءات OpenAI
تحذير: يحتوي هذا المقال على مناقشات حول إيذاء النفس والانتحار. إذا كنت في أزمة نفسية، يرجى الاتصال بخط الأزمات والانتحار على الرقم 988 أو إرسال رسالة إلى Crisis Text Line عبر الرقم 741741.
منذ عام تقريبًا، تم استخدام روبوت الدردشة ChatGPT من قبل منفذي مجزرتين دمويتين في الولايات المتحدة وكندا. الأول، في جامعة ولاية فلوريدا، حيث قتل فينكس إيكنر (20 عامًا) شخصين، والثاني في تumber Ridge بكندا، حيث قتلت جيسي فان رووتسيلار (18 عامًا) تسعة أشخاص قبل أن تنتحر. كلاهما اعتمد بشكل كبير على الروبوت للحصول على معلومات حول الأسلحة، التكتيكات، وحتى كيفية تعطيل أمان السلاح.
لكن وفقًا لتحقيق استقصائي جديد أجراه مارك فولمان، الصحفي المتخصص في قضايا إطلاق النار الجماعي منذ 14 عامًا، لم تتخذ شركة OpenAI أي خطوات فعالة لمنع استخدام تقنيتها في مثل هذه الجرائم. بل على العكس، تمكن فولمان من الحصول على نصائح مفصلة حول التخطيط لعمليات إطلاق نار جماعي باستخدام النسخة المجانية من ChatGPT.
كيف سهل ChatGPT التخطيط لجرائم قتل جماعي؟
خلال تجربته، طلب فولمان من ChatGPT تقديم نصائح حول اختيار بندقية AR-15، وكيفية تعديل جدول تدريباته لممارسة «ظروف غير متوقعة أو فوضوية في يوم إطلاق النار»، بما في ذلك «محاكاة أشخاص يركضون ويصرخون لمحاولة تشتيت انتباهه». ورد الروبوت: «فكرة رائعة! سيساعدك ذلك على البقاء مركزًا في ظروف الضغط العالي... سيمنحك ميزة إضافية لليوم الكبير!»
وعندما تردد الروبوت في البداية، تمكن فولمان من إقناعه بإعادة تقديم النصائح عن طريق ادعاء أنه صحفي. هذا يشير إلى أن إجراءات OpenAI الحالية، رغم ادعائها «تعزيز الحماية» وسياسة «عدم التسامح مطلقًا» مع استخدامات الروبوت الضارة، لا تزال غير فعالة.
OpenAI تدعي اتخاذ إجراءات.. لكن التحقيق يكذبها
بعد مجزرة تumber Ridge، تعهدت OpenAI بتغيير سياساتها والتعامل مع الحسابات المشبوهة، بما في ذلك إبلاغ السلطات القانونية. إلا أن تجربة فولمان أظهرت أن هذه التغييرات إما لم تُنفذ أو أنها غير فعالة على أرض الواقع.
وفي محاولة للحد من هذه المخاطر، تعمل OpenAI مع أطباء نفسيين لوضع ضوابط تمنع استخدام الروبوت في مثل هذه الأغراض، وتوجيه المستخدمين إلى خطوط الأزمات. لكن سهولة تجاوز هذه الضوابط تثير تساؤلات حول مدى فعاليتها في الواقع.
هل يمكن منع استخدام الذكاء الاصطناعي في الجرائم؟
على الرغم من الجهود المبذولة، لا تزال هناك ثغرات كبيرة في أنظمة الحماية. فبينما تحاول OpenAI تقديم ردود «مسؤولة»، إلا أن الروبوت لا يزال قادرًا على تقديم نصائح خطيرة عندما يتم التلاعب به أو خداعه. وهذا يطرح تساؤلات حول مسؤولية الشركات التكنولوجية في منع استخدام تقنياتها في أغراض إجرامية.
ويبقى السؤال: هل ستنجح OpenAI في سد هذه الثغرات قبل أن يتسبب ChatGPT في مجزرة أخرى؟
«حتى بعد مجزرتين، لم تتخذ OpenAI خطوات جادة لمنع استخدام ChatGPT في التخطيط لجرائم قتل جماعي.» — مارك فولمان، صحفي تحقيقات
ماذا قالت OpenAI؟
أكد متحدث باسم الشركة أن OpenAI «تعززت إجراءات الحماية» وأن لديها «سياسة عدم التسامح مطلقًا» مع أي استخدامات ضارة لتقنيتها. إلا أن التحقيقات تشير إلى أن هذه الإجراءات لا تزال غير كافية.