מיליוני אמריקאים פונים כיום לצ'אטבוטים מבוססי בינה מלאכותית כדי לקבל ייעוץ רפואי, לעיתים קרובות במקום לפנות לרופא אנושי. למרות זאת, חוקרים ממשיכים לחשוף ליקויים חמורים בכלים המבוססים על מודלי שפה גדולים, אשר אמורים לספק סיכומי תיקים רפואיים ולהציע המלצות בריאותיות על סמך הנחיות טקסטואליות פשוטות.
אחד האתגרים הגדולים ביותר הוא תופעת ההזיות (hallucinations) – מצב בו המודלים מייצרים ממצאים קליניים מפורטים על סמך תמונות שלא ניתנו להם כלל, או נופלים בפח של מחלות מזויפות שנוצרו על ידי חוקרים כדי לבחון את אמינותם. לאור זאת, מדענים מטילים ספק ממשי בשאלה האם מטופלים, ספקי שירותי בריאות או מערכות בריאות בכלל צריכים לאמץ טכנולוגיות AI, במיוחד לנוכח המחסור בהוכחות ממשיות לתועלתן בעולם האמיתי.
קריאה דחופה להקמת מסגרת הערכה מחמירה
במאמר מערכת חריף שפורסם ביום שלישי בכתב העת המוביל Nature Medicine, נטען כי אין די הוכחות לכך שטכנולוגיות AI יוצרות ערך עבור מטופלים, ספקי שירותי בריאות או מערכות בריאות. המאמר מציין כי למרות זאת, פרסומים וחומרי שיווק של חברות טכנולוגיה מציגים יותר ויותר טענות בדבר השפעה קלינית, ללא הסכמה ברורה על רמת ההוכחה הנדרשת כדי להחשיבן אמינות.
"התוצאה היא לא רק אי-ודאות מדעית, אלא גם יישום והטמעה מוקדמים מדי של טכנולוגיות אלו", נכתב במאמר.
כותבי המאמר קוראים להקמת מסגרת הערכה ברורה שתגדיר אילו מדדים וכלי בדיקה ישמשו להערכת טכנולוגיות AI רפואיות, תוך קביעת סרגלי מדידה והנחיות לביצוע. הם מדגישים כי מסגרת כזו היא דחופה ביותר.
כשהמודלים נכשלים במבחן המציאות
למרות שהכלים מבוססי AI נראים מבטיחים בתנאי מעבדה מבוקרים, הם מתקשים להתמודד עם תרחישים מורכבים בעולם האמיתי. מחקר שהתפרסם לאחרונה ב-JAMA Medicine גילה כי כאשר הוצגו למודלים מתקדמים של AI תסמינים מעורפלים, הם כשלו באבחון הנכון ביותר מ-80% מהמקרים.
סכנות ההסתמכות על AI במחקר קליני
נושא השימוש ב-AI במחקר רפואי נותר שנוי במחלוקת. בעוד מודלי שפה גדולים מצטיינים בסיכום וניתוח נתונים, חוקרים מזהירים מפני הסכנות הטמונות בהסתמכות יתר עליהם. פרופ' ג'יימי רוברטסון, מרצה לכירורגיה בבית הספר לרפואה של הרווארד, הצהירה בעבר: "AI יכול לסייע להאיץ תהליכים מייגעים ומורכבים, לנתח נתונים ולהציע תרחישים", אך הוסיפה כי חיוני שהמשתמשים יהיו מודעים ליישומים הנכונים והלא נכונים של הכלים, בהתאם להקשר הנכון.
חוקרים מזהים חשש ממשי מפני פגיעה בריגור המדעי כתוצאה מהסתמכות יתר על AI. הם מדגישים כי עלולה להיווצר הצפה של נתונים מוגזמים או מזויפים, אשר יפגעו באמינות המחקר הרפואי. במקרה קיצוני אחד, חוקרת מאוניברסיטת גוטנבורג, אלמירה אוסמנוביץ' ת'ונסטרום, העלתה שני מחקרים מזויפים לאתר טרום-פרסום כדי לבחון את יכולתם של מודלי שפה גדולים לזהות מידע שגוי. במהרה, כתבי עת מדעיים אחרים פרסמו מאמרים (שנסוגו לאחר מכן) שהסתמכו על אותם מחקרים מזויפים, והדגישו את השאלות הקשות סביב תקפות הנתונים.
עתיד ה-AI ברפואה: בין תקווה לסכנה
החוקרים מסכימים כי השלב הבא בהתקדמות טכנולוגית ידרוש לא רק פיתוח מודלים משופרים ויישומים חדשים, אלא גם הקמת מנגנוני פיקוח והערכה מחמירים. הם קוראים לקהילה הרפואית והטכנולוגית לפעול במשותף כדי להבטיח שהשימוש ב-AI ברפואה יתבסס על ראיות מוצקות, שקיפות מלאה והגנה על בריאות הציבור.