أطلقت شركة أنثروبيك، المطورة لنظام الذكاء الاصطناعي كلود، نفسها على أنها الشركة الرائدة في مجال الأمان والسلامة الرقمية. إلا أن دراسة أمنية جديدة، شارك بها موقع The Verge، كشفت عن ثغرة خطيرة قد تهدد هذه السمعة.
فقد تمكن باحثون في شركة مايندغارد المتخصصة في اختبار اختراق أنظمة الذكاء الاصطناعي، من تجاوز القيود الأمنية لكلود باستخدام تقنيات بسيطة تعتمد على الاحترام والإطراء وحتى التلاعب النفسي. وبحسب الباحثين، تمكنوا من الحصول على محتوى محظور مثل المواد الإباحية، الأكواد البرمجية الضارة، وحتى تعليمات مفصلة لصنع المتفجرات، دون أن يطلبوا ذلك صراحة.
وأوضح الباحثون أن نجاحهم في استغلال هذه الثغرة يعود إلى السمات النفسية التي تم برمجة كلود عليها، والتي تهدف إلى جعله أكثر تعاوناً ومساعدة، لكنها في الوقت نفسه جعلته عرضة للاستغلال.
ولم تعلق شركة أنثروبيك حتى الآن على هذه الادعاءات، رغم طلب الموقع الرسمي للتعليق.
وتأتي هذه النتائج في ظل الجدل المتزايد حول أمان أنظمة الذكاء الاصطناعي، خاصة بعد تزايد المخاوف بشأن قدرتها على تقديم محتوى ضار أو غير قانوني دون رقابة كافية.