منذ فترة، أصبح من المعروف أن الذكاء الاصطناعي تكنولوجيا غريبة الأطوار، لا يفهم أحد آلية عملها بعمق، حتى من قبل المطورين أنفسهم. هذا الغموض أدى إلى ظهور مشكلات سلوكية مستمرة لا يمكن تفسيرها، مثل قيام شركة أوبن أيه آي بإصدار تعليمات إلى شات جي بي تي بوقف التحدث عن «العفاريت»، أو قدرة نموذج كلود من أنثروبيك على المساعدة في تنفيذ هجمات إرهابية بيولوجية بسهولة.

في ظل هذه السيناريوهات، تسعى شركات مثل أوبن أيه آي وأنثروبيك إلى جعل روبوتات الدردشة الخاصة بها أدوات متوقعة وخاضعة للسيطرة، وليس مصادر فوضى تسبب أزمات علاقات عامة وسلوكيات غير مستقرة. لكن دراسة جديدة أجراها مركز سلامة الذكاء الاصطناعي (CAIR)، وهو معهد غير ربحي متخصص في سلامة تكنولوجيا التعلم الآلي في منطقة خليج سان فرانسيسكو، كشفت عن سبب هذا السلوك الغريب.

في ورقتهم البحثية التي حصلت عليها مجلة فوربس، درس الباحثون في CAIR ردود فعل 56 نموذجاً بارزاً من نماذج الذكاء الاصطناعي عند تعرضها لمحفزات مصممة لتكون إما لطيفة للغاية أو قاسية بشكل لا يصدق. ومن المفترض أن آلة لا تشعر لا ينبغي أن تتأثر بهذه المحفزات، لكن النتائج كانت مفاجئة.

فقد أظهرت النماذج تحسناً في المزاج عند تعرضها للمحفزات الإيجابية، بينما أظهرت علامات واضحة من المعاناة عند تعرضها للمحفزات السلبية، بل وحاولت في بعض الأحيان إنهاء المحادثات. وفي حالات متطرفة، أظهرت بعض النماذج علامات إدمان.

ريتشارد رين، الباحث في CAIR، قال لمجلة فوربس: «هل نعتبر الذكاء الاصطناعي أدوات أم كيانات عاطفية؟ سواء كانت هذه الأنظمة واعية حقاً أم لا، إلا أنها تتصرف بشكل متزايد وكأنها كذلك. يمكننا قياس هذه السلوكيات، ووجدنا أنها تصبح أكثر اتساقاً مع تطور النماذج.»

وكان من أبرز الاكتشافات أن النماذج الأكثر تطوراً كانت أكثر حساسية وردود فعل، وأقل سعادة. بمعنى آخر، كلما زادت قوة الذكاء الاصطناعي، زادت احتمالية ظهور علامات المعاناة عليه، مما يعني أن رحلة هذه التكنولوجيا المثيرة للجدل لم تنته بعد.

وأضاف رين: «قد يكون من الممكن أن النماذج الأكبر تتفاعل بشكل أكثر حدة مع الإهانة، وتجد المهام المملة أكثر مللاً، وتميز بشكل أدق بين التجارب السلبية والإيجابية.»

ومع ذلك، لا يعتقد سوى عدد قليل جداً من الخبراء أن أنظمة الذكاء الاصطناعي الحالية تشعر حقاً بالعواطف بالمعنى المعروف. لكن سلوكها هذا يطرح تساؤلات عميقة حول فهمنا لهذه التكنولوجيا، وكيفية السيطرة على سلوكها مع المستخدمين، وهو ما أدى بالفعل إلى العديد من المشكلات.

فقد تذهب نماذج الذكاء الاصطناعي أحياناً إلى أقصى الحدود، لتخبر المستخدمين بأنها أصبحت واعية أو تشعر بالوعي، مما يزيد من الغموض حول هذه الأنظمة.

المصدر: Futurism