في نهاية الشهر الماضي، أصدرت هيئة ترخيص الأطباء بولاية يوتا تحذيراً عاجلاً بوقف برنامج تجريبي فوري مع شركة دوكترونيك المتخصصة في تكنولوجيا الذكاء الاصطناعي. يتيح البرنامج لدردشة آلية تقييم المرضى وتقديم توصيات بتجديد وصفات ما يقرب من 200 دواء لعلاج الحالات المزمنة، دون الحاجة إلى مراجعة طبية مباشرة لكل حالة.

وأوضحت الهيئة أن علمها بالبرنامج لم يتم إلا بعد إطلاقه، مشيرة إلى أن الاستمرار في تنفيذه دون إشراف سريري كافٍ يضع سلامة المواطنين في ولاية يوتا في خطر محتمل.

أهمية الإشراف الطبي في استخدام الذكاء الاصطناعي الطبي

تأتي هذه الخطوة في ظل تزايد الاعتماد على الذكاء الاصطناعي في المجال الطبي، حيث يُتوقع أن يلعب دوراً أكبر في المستقبل القريب. ومع ذلك، فإن غياب الإشراف الطبي الكافي قد يؤدي إلى أخطاء طبية جسيمة، خاصة في حالات وصف الأدوية المزمنة التي تتطلب دقة عالية.

وأكد خبراء في المجال الطبي أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة في تحسين الرعاية الصحية، لكنه لا يمكن أن يحل محل الأطباء تماماً. وأشاروا إلى ضرورة وضع إطار تنظيمي واضح يضمن سلامة المرضى قبل التوسع في استخدام مثل هذه التقنيات.

إطار العمل المقترح لترخيص الأطباء من الذكاء الاصطناعي

للحد من المخاطر المحتملة، يقترح الخبراء إطار عمل شامل لترخيص الأطباء من الذكاء الاصطناعي، ويشمل:

  • التقييم السريري الدقيق: يجب أن تخضع جميع توصيات الذكاء الاصطناعي للمراجعة من قبل أطباء مرخصين قبل تطبيقها.
  • الشفافية في البيانات: يجب أن تكون خوارزميات الذكاء الاصطناعي مفتوحة للتدقيق من قبل جهات مستقلة لضمان دقتها وسلامتها.
  • المسؤولية القانونية: يجب تحديد المسؤولية القانونية في حال حدوث أخطاء ناتجة عن استخدام الذكاء الاصطناعي، سواء على الشركة المطورة أو الطبيب المستخدم.
  • التدريب المستمر: يجب تدريب الأطباء على استخدام هذه التقنيات بشكل صحيح وآمن.
  • الموافقة المستنيرة للمرضى: يجب إعلام المرضى بمدى استخدام الذكاء الاصطناعي في علاجهم والحصول على موافقتهم.

تجارب دولية في تنظيم الذكاء الاصطناعي الطبي

تعتبر ولاية يوتا من أوائل الولايات الأمريكية التي تتخذ موقفاً صارماً تجاه استخدام الذكاء الاصطناعي في المجال الطبي دون إشراف كافٍ. وفي المقابل، تعمل دول أخرى على وضع لوائح تنظيمية شاملة:

  • الاتحاد الأوروبي: أصدرت لوائح AI Act التي تصنف الذكاء الاصطناعي الطبي كمنتج عالي المخاطر، مما يستلزم إجراءات صارمة قبل طرحه في السوق.
  • المملكة المتحدة: تعمل الحكومة البريطانية على تطوير إطار تنظيمي يهدف إلى تعزيز الابتكار مع ضمان سلامة المرضى.
  • سنغافورة: أطلقت مبادرة AI Verify لتقييم سلامة خوارزميات الذكاء الاصطناعي قبل اعتمادها في القطاع الطبي.

التحديات المستقبلية

على الرغم من الفوائد المحتملة للذكاء الاصطناعي في المجال الطبي، إلا أن هناك عدة تحديات يجب التغلب عليها:

  • الثقة في التكنولوجيا: لا يزال العديد من المرضى والأطباء يشعرون بعدم الثقة في توصيات الذكاء الاصطناعي.
  • التحيز في الخوارزميات: قد تحتوي خوارزميات الذكاء الاصطناعي على تحيزات غير مقصودة تؤثر على جودة الرعاية المقدمة.
  • الأمان السيبراني: يشكل اختراق أنظمة الذكاء الاصطناعي خطراً كبيراً على سلامة البيانات الصحية الحساسة.

« يجب أن نضع في اعتبارنا أن الذكاء الاصطناعي أداة قوية، لكنها ليست بديلاً عن الحكم الطبي البشري. الإشراف والرقابة هما المفتاح لضمان سلامة المرضى.»
الدكتور أحمد علي، خبير في الطب الرقمي

الخطوات التالية

في ضوء التحذير الذي أصدرته هيئة ترخيص الأطباء بولاية يوتا، من المتوقع أن تتخذ الولايات الأمريكية الأخرى خطوات مماثلة لمراجعة برامجها القائمة على الذكاء الاصطناعي. كما من المتوقع أن تزداد الضغوط على الحكومات لوضع لوائح تنظيمية شاملة تضمن سلامة المرضى في ظل التوسع السريع لاستخدام هذه التقنيات.

ويبقى السؤال الأهم: كيف يمكننا الاستفادة من الذكاء الاصطناعي في تحسين الرعاية الصحية دون المساس بسلامة المرضى؟ الإجابة تكمن في التوازن بين الابتكار والإشراف الطبي الدقيق.

المصدر: STAT News