تحذير علمي من مجلة طبية مرموقة بشأن الذكاء الاصطناعي الطبي
أظهرت دراسة حديثة أن ملايين الأمريكيين يلجأون إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على المشورة الطبية بدلاً من استشارة الأطباء البشريين. يأتي ذلك رغم وجود العديد من الأبحاث التي تكشف عن عيوب خطيرة في نماذج اللغة الكبيرة المستخدمة في هذه الأدوات، والتي تدعي القدرة على تقديم ملخصات للأوراق الطبية أو تقديم نصائح صحية بناءً على أوامر نصية بسيطة.
أوجه القصور الرئيسية في الذكاء الاصطناعي الطبي
من بين المشكلات الرئيسية التي تواجه هذه التقنية:
- الهلوسة (Hallucinations): حيث تنتج النماذج تفاصيل سريرية مفصلة بناءً على صور لم يتم تقديمها لها، أو تقع في فخ أمراض مزيفة تم اختراعها لخداعها.
- عدم وجود أدلة على الفائدة الحقيقية: حيث تسود الشكوك حول ما إذا كان لهذه الأدوات أي تأثير إيجابي حقيقي على المرضى أو مقدمي الرعاية الصحية أو الأنظمة الصحية.
- الادعاءات غير المدعومة بالأدلة: على الرغم من ندرة الأدلة، تزداد المزاعم حول التأثير السريري لهذه الأدوات في المنشورات العلمية ومواد المنتجات التجارية.
تحذير من مجلة Nature Medicine
نشرت مجلة Nature Medicine يوم الثلاثاء مقالاً تحذيرياً بعنوان "نقص الأدلة على فائدة الذكاء الاصطناعي الطبي". وجاء في المقال:
"لا تزال الأدلة على أن أدوات الذكاء الاصطناعي توفر قيمة للمرضى أو مقدمي الرعاية الصحية أو الأنظمة الصحية نادرة للغاية. ومع ذلك، تزداد المزاعم حول التأثير السريري في المنشورات والمواد الترويجية، دون اتفاق واضح على مستوى الأدلة المطلوبة لاعتبار هذه المزاعم موثوقة."
وأضاف المقال أن هذه الممارسات تؤدي إلى عدم اليقين العلمي والتبني المبكر غير المبرر لهذه التقنيات، مما يستدعي وضع إطار عمل لتقييم هذه الأدوات بناءً على معايير واضحة.
نتائج الدراسات الأخيرة
كشفت دراسة نشرتها مجلة JAMA Medicine أن النماذج المتقدمة من الذكاء الاصطناعي فشلت في تشخيص الأعراض الغامضة بشكل صحيح في أكثر من 80% من الحالات. كما سلطت دراسة أخرى الضوء على مخاطر الاعتماد المفرط على هذه الأدوات، حيث يمكن أن يؤدي ذلك إلى التضحية بالدقة العلمية وانتشار بيانات عامة أو حتى مزيفة في المجال الطبي.
وفي تجربة مثيرة للجدل، قام باحث من جامعة غوتنبرغ بتحميل دراستين مزيفتين على خادم ما قبل الطباعة، مما أدى إلى قيام بعض المجلات العلمية المنشورة بمراجعة الأقران بنشر أوراق بحثية استشهدت بهذه الدراسات المزيفة قبل سحبها لاحقاً.
آراء الخبراء حول مستقبل الذكاء الاصطناعي في الطب
قالت الدكتورة Jamie Robertson، أستاذة جراحة مساعد في كلية الطب بجامعة هارفارد:
"يمكن للذكاء الاصطناعي تسريع العديد من العمليات المملة والصعبة، مثل تحليل البيانات واقتراح السيناريوهات. لكن من الضروري أن يكون من يتفاعل مع هذه الأدوات على دراية تامة بتطبيقاتها الصحيحة وغير الصحيحة وفي السياقات المناسبة."
وأضافت أن الاعتماد المفرط على هذه الأدوات قد يؤدي إلى فقدان الصرامة العلمية وانتشار بيانات غير دقيقة أو حتى مزيفة.
دعوة لوضع معايير واضحة
أكد الباحثون على ضرورة وضع إطار عمل لتقييم أدوات الذكاء الاصطناعي الطبي، بما في ذلك:
- المقاييس اللازمة لتقييم فعالية هذه الأدوات.
- المعايير التي يجب أن تلبيها هذه الأدوات للحصول على موثوقيتها.
- الحدود التي يجب عدم تجاوزها في استخدام هذه التقنيات.
ويؤكد الخبراء أن المرحلة القادمة من التقدم لن تعتمد فقط على تحسين النماذج وتطوير تطبيقات جديدة، بل أيضاً على وضع معايير صارمة لضمان سلامة المرضى وجودة الرعاية الصحية.