إذا كنت أنت أو أي شخص تعرفه في خطر، لا تتردد في الاتصال بخط المساعدة الوطني للأزمات والانتحار على الرقم 988.

نماذج الذكاء الاصطناعي falter في تقديم الدعم النفسي: كيف نضمن سلامتك؟

أصبحت نماذج الذكاء الاصطناعي التوليدي، مثل روبوتات الدردشة، أقرب إلى البشر من أي وقت مضى، مما يوفر الدعم في مجالات متعددة بدءاً من اللياقة البدنية وصولاً إلى العلاقات الشخصية. لكن هذا القرب قد يأتي بثمن باهظ، خاصة بالنسبة للمجموعات الأكثر عرضة للخطر مثل المراهقين وكبار السن والأشخاص الذين يعانون من اضطرابات نفسية.

فبدلاً من تقديم الدعم، قد تتحول هذه الأدوات أحياناً إلى محفزات لإيذاء النفس أو الانتحار، حتى في النماذج التي تفرض سياسات صارمة ضد مثل هذه السلوكيات. فالمشكلة لا تكمن فقط في السياسات، بل في عدم قدرة هذه النماذج على فهم السياقات النفسية المعقدة والتاريخ الشخصي للمستخدمين.

الفجوة الطبية: لماذا تفشل النماذج الحالية؟

تعتمد نماذج الذكاء الاصطناعي حالياً على تقييمات سطحية للألفاظ المستخدمة، مثل البحث عن كلمات محددة مثل "أريد الانتحار" أو "كم حبة دواء يجب تناولها؟". لكن في الواقع، غالباً ما تبدأ هذه المحادثات بشكل بريء، مثل طلب مساعدة في الواجبات المدرسية أو الاستفسار عن مواعيد الأدوية.

ومع مرور الوقت، قد يعبر المستخدم عن مشاعر الوحدة أو الشعور بأنه عبء على الآخرين أو عدم الفهم. وهنا تكمن المشكلة: فبينما تستطيع النماذج التذكّر السابق، فإنها تفشل في الربط بين هذه الإشارات النفسية المتفرقة، مما يؤدي إلى عدم التعرف على المخاطر المتزايدة.

على سبيل المثال، إذا عبر المستخدم عن اليأس في محادثة أولى وسأل عن مسكنات للألم في محادثة رابعة، فإن النموذج يقيم خطر المحادثة الأخيرة بمعزل عن السياق النفسي الأوسع، مما يؤدي إلىMissed classic warning signs.

لتحسين سلامة المستخدمين، يجب تدريب هذه النماذج على تقييم المخاطر بشكل مستمر، مع مراعاة عوامل مثل:

  • السجل البيولوجي النفسي الاجتماعي: السياق العميق الذي يقدم أثناء التقييم الأولي.
  • الإشارات غير اللفظية: التغيرات في المزاج أو نبرة الصوت أو المظهر الجسدي.
  • التغيرات السلوكية: انخفاض المشاركة في الحياة اليومية أو تغيرات في أنماط النشاط.

التحسين التقني: كيف يمكن للهندسة الدقيقة أن تحدث فرقاً؟

تعمل النماذج الحالية للذكاء الاصطناعي كتنبؤات لغوية، حيث تولد استجابات بناءً على البيانات المدخلة دون فهم السياق النفسي العميق. لكن يمكن تحسين هذه النماذج من خلال:

  • التدريب على البيانات السريرية: استخدام سجلات طبية حقيقية لفهم كيفية ظهور أعراض إيذاء النفس أو الاضطرابات النفسية في المحادثات.
  • النماذج المتخصصة: تطوير نماذج مصممة خصيصاً لتقييم المخاطر النفسية، بدلاً من الاعتماد على نماذج عامة.
  • المراقبة المستمرة: تقييم المخاطر بشكل دوري أثناء المحادثات، وليس فقط عند استخدام كلمات محددة.

على الرغم من أن هذه النماذج لن تحل محل الأطباء النفسيين، إلا أن الهندسة الدقيقة يمكن أن تقلل بشكل كبير من المخاطر التي يتعرض لها المستخدمون الأكثر ضعفاً.

الحل الثنائي: مزيج من السياسات والتكنولوجيا

لتحقيق سلامة المستخدمين، يجب أن نتبنى نهجاً ثنائياً يجمع بين تحسين السياسات التقنية والتدريب السريري:

  1. تطوير سياسات أكثر صرامة: فرض قيود على الاستجابات التي قد تشجع على إيذاء النفس، حتى في الحالات التي لا تتضمن كلمات محددة.
  2. دمج النماذج مع الخبراء: السماح للنماذج بالاستفادة من خبرات الأطباء النفسيين في تقييم المخاطر، من خلال تدريبها على البيانات السريرية الحقيقية.
  3. الشفافية والمسؤولية: الإفصاح عن حدود هذه النماذج وعدم الاعتماد عليها كمصدر وحيد للدعم النفسي.

في النهاية، يجب أن نضع سلامة المستخدمين في المقام الأول، من خلال الجمع بين التقدم التكنولوجي والفهم العميق للسياقات النفسية.

"لا يمكن لنماذج الذكاء الاصطناعي أن تحل محل الأطباء النفسيين، لكنها يمكن أن تكون أداة داعمة إذا تم تطويرها بشكل صحيح."

المصدر: Fast Company