בשנים האחרונות הופכות מערכות בינה מלאכותית לרישום רפואי לכלי נפוץ בקרב רופאים במהלך פגישות עם מטופלים. תוכנות אלה, המכונות "AI scribes", מאזינות לשיחה, מתרגמות אותה לרשומות רפואיות מובנות ומסייעות לרופאים לתעד את המידע במהירות וביעילות.

אולם, דו"ח חדש שפורסם השבוע על ידי מבקר המדינה של אונטריו מעלה חששות כבדים בנוגע לאמינותן של מערכות אלו. על פי הדו"ח, מערכות ה-AI אינן נבדקות כראוי ומייצרות לעיתים קרובות מידע בדוי או שגוי לרופאים. הדו"ח התבסס על בדיקת 20 מערכות AI שונות שאושרו לשימוש על ידי הממשלה המקומית.

ממצאים מטרידים: מערכות AI מייצרות מידע שגוי

במהלך בדיקות הרכש, התגלו ליקויים חמורים במערכות אלו, כולל:

  • הזיות (hallucinations): יצירת מידע רפואי שאינו קיים במציאות.
  • מידע שגוי: נתונים לא מדויקים או מטעים.
  • מידע חלקי או חסר: השמטת פרטים חשובים ברשומות הרפואיות.

המבקרת הכללית של אונטריו, שלי ספנס, הדגישה כי ליקויים אלו עלולים להוביל לטעויות בטיפול הרפואי ולפגוע בבריאותם של המטופלים. ספנס אף סיפרה כי בעצמה ביקשה מרופאה שלה לבדוק את התמליל של הפגישה שלה לאחר שימוש במערכת AI.

תגובת הממשלה והמצב בפועל

שר השירותים הציבוריים והעסקיים של אונטריו, סטיבן קרופורד, הבהיר כי הבעיות התגלו במהלך בדיקות הרכש ולא במהלך פגישות רפואיות בפועל. עם זאת, הוא אישר כי כ-5,000 רופאים באונטריו משתמשים במערכות אלו, למרות הבעיות שהתגלו.

קרופורד ציין כי המערכות נמצאות עדיין בשלבי בדיקה אופציונליים ולא בשימוש מבצעי מלא בקרב רופאים.

סקירה נוספת: המערכת OpenEvidence בארצות הברית

בארצות הברית עולה חשש דומה סביב מערכת ה-AI scribe OpenEvidence, הנמצאת תחת ביקורת גוברת בשל הזיות ומידע חלקי שהיא מייצרת. רופאים דיווחו כי המערכת מסיקה מסקנות מרחיקות לכת ממחקרים רפואיים בעלי מדגמים קטנים יחסית.

למרות החששות, רבים מהרופאים ממשיכים להעריך את התועלת שמביאות מערכות אלו, אך נותרו שאלות פתוחות בנוגע ליכולתן לפעול בצורה אמינה במצבים אמיתיים ולהחזיק מעמד לאחר שכל ההתלהבות סביב הבינה המלאכותית תדעך.

מקור: Futurism