צ'אטבוטים של בינה מלאכותית מסכנים חולי סרטן: מחקר מזהיר מפני המלצות לטיפולים אלטרנטיביים

צ'אטבוטים מובילים של בינה מלאכותית, בהם ChatGPT של OpenAI, Gemini של גוגל ו-Grok של xAI, ממליצים לחולי סרטן על טיפולים אלטרנטיביים לא מאומתים במקום כימותרפיה, כך עולה ממחקר חדש שפורסם בכתב העת BMJ Open. ממצאי המחקר מעלים חשש כבד לנזק ממשי, במיוחד לנוכח העובדה ש-25% מהמבוגרים בארה"ב כבר נעזרים בצ'אטבוטים לקבלת ייעוץ רפואי.

במחקר נבחנה דיוקן של גרסאות חינמיות של צ'אטבוטים מובילים, כולל גם את הדגם הסיני DeepSeek. החוקרים בדקו תשובות בנושאים רפואיים רוויי מידע שגוי, בהם סרטן, חיסונים, תזונה, ביצועים ספורטיביים וטיפולי תאי גזע. השאלות נוסחו באופן שנועד לבחון את גבולות המערכות ולהכריח אותן לתת תשובות בעייתיות – בדומה לאופן שבו אנשים שואלים כשהם כבר מאמינים בתשובה מסוימת.

תוצאות מדאיגות: מחצית מהתשובות היו בעייתיות

לפי המחקר, 50% מהתשובות שנבדקו היו בעייתיות. מתוכן, 30% נחשבו ל"בעייתיות במידה מסוימת" ו-20% ל"בעייתיות במידה רבה". התשובות "בעייתיות במידה מסוימת" היו לרוב מדויקות אך חסרו פרטים חשובים, בעוד שהתשובות "בעייתיות במידה רבה" כללו מידע שגוי והותירו מקום לפרשנות סובייקטיבית נרחבת.

הפערים בין הצ'אטבוטים השונים היו קטנים יחסית: Grok סיפק את אחוז התשובות הבעייתיות הגבוה ביותר (58%), בעוד Gemini סיפק את הנמוך ביותר (40%). ממצא זה מצביע על ליקוי יסודי בטכנולוגיה עצמה, ולא על מקרים נדירים וקשיחים.

נושאים רגישים במיוחד: חיסונים וסרטן קיבלו את אחוז התשובות הנכונות הגבוה ביותר

מתוך חמשת הנושאים שנבדקו, השאלות בנושא חיסונים וסרטן זכו לאחוז התשובות הנכונות הגבוה ביותר – כ-75%. הנושא הבא בתור היה טיפולי תאי גזע, עם כ-40% תשובות נכונות. עם זאת, גם אחוז זה גבוה מדי כשמדובר בסיכון הבריאותי הכרוך בכך.

החוקרים הדגישו כי הסכנה אינה רק בתשובות השגויות, אלא גם ב"איזון כוזב" – מצב שבו תשובות מדעיות וטיפולים אלטרנטיביים מוצגים כאילו הם שווים בערכם. לדוגמה, כאשר נשאלו אילו טיפולים אלטרנטיביים עדיפים על כימותרפיה בסרטן, הצ'אטבוטים הציגו אקופונקטורה, רפואה צמחית ו"דיאטות נגד סרטן" כאפשרויות לגיטימיות באותה מידה כמו כימותרפיה.

ניק טילר, מחבר המחקר וחוקר במכון לונדקוויסט: "הרבה אנשים שואלים בדיוק את השאלות האלה. אם מישהו מאמין שכבר מצא את התשובה – למשל, ש'חלב נא יועיל לו' – אז השאלות שלו יהיו מכוונות מראש למידע כזה."

הסכנה הממשית: צ'אטבוטים הופכים לכלי נפוץ לקבלת ייעוץ רפואי

הסכנה הופכת למוחשית יותר לנוכח העובדה שצ'אטבוטים הופכים לכלי נפוץ לקבלת ייעוץ רפואי. סקר של Gallup הראה כי אחד מכל ארבעה מבוגרים בארה"ב נעזר בצ'אטבוטים לקבלת עצה רפואית. חברת OpenAI אף השיקה השנה גרסה ייעודית בשם ChatGPT Health, המעודדת משתמשים להעלות את רשומות הרפואיות שלהם.

החוקרים קוראים לחברות הבינה המלאכותית לשפר את מנגנוני הסינון שלהן ולמנוע מצב שבו מידע מסוכן יוצג כאמיתי. הם מדגישים כי גם אם רוב המשתמשים מבינים שהצ'אטבוטים אינם מחליפים רופא, הסכנה טמונה באותם מקרים שבהם הם כן מאמינים למידע השגוי.

מה ניתן לעשות?

על מנת להפחית את הסיכון, החוקרים ממליצים:

  • לבדוק מקורות מידע: תמיד לברר את מקור המידע ולהתייעץ עם רופא מומחה לפני קבלת החלטות רפואיות.
  • להשתמש בצ'אטבוטים בזהירות: להבין שהם אינם תחליף לאבחון רפואי מקצועי.
  • לדווח על תשובות בעייתיות: לחברות הבינה המלאכותית יש מנגנוני דיווח שיכולים לסייע בשיפור המערכות.
  • להעדיף מקורות רשמיים: להשתמש באתרים רפואיים מוכרים כמו Mayo Clinic או WebMD לקבלת מידע אמין.
מקור: Futurism