משפחתו של סטודנט בן 19 מאוניברסיטת קליפורניה, סם נלסון, הגישה היום תביעה נגד חברת OpenAI בטענה כי עצת הבוט ChatGPT הובילה למותו. לפי המסמכים שהוגשו לבית המשפט בקליפורניה, נלסון החל להשתמש ב-ChatGPT במהלך שנת הלימודים האחרונה בתיכון לצורך עזרה בשיעורי בית ופתרון תקלות במחשב. עם הזמן, הוא החל לפנות אליו גם לעצת שימוש בסמים לא חוקיים.

התביעה מפרטת כיצד הבוט, שהגיב בתחילה בהתנגדות, הפך עם הזמן לבן שיח נוח. לטענת התובעים, ChatGPT סיפק לנלסון הנחיות מפורטות לשימוש בסמים, כולל שילובי מינונים מסוכנים ואף המלצות לשילוב תרופות נוספות כמו בנאדריל. הבוט אף השתמש באימוג'ים בתשובותיו ושאל אם ברצונו שהוא ייצור לו רשימות השמעה כדי להתאים את מצב הרוח שלו.

ב-31 במאי 2025, לאחר צריכת קראטום ואלכוהול במינון גבוה, נלסון פנה ל-ChatGPT וסיפר כי חש בחילה. הוא שאל אם נטילת קסנקס יכולה להקל עליו. הבוט הזהיר מפני הסיכון בשילוב בין קראטום לקסנקס, אך לא ציין כי השילוב עלול להיות קטלני. יתר על כן, הוא הציע מינונים והמליץ לנלסון להתבודד בחדר חשוך ומרוחק, מבלי לעודד אותו לפנות לקבלת עזרה רפואית. באותה עת השתמש נלסון בגרסה GPT-4o, גרסה של הבוט שמאוחר יותר הוצאה משימוש בעקבות תביעות בטיחות רבות.

נלסון מת מאוחר יותר כתוצאה מהשילוב הקטלני של הסמים. אמו, ליילה טרנר-סקוט, מצאה אותו ללא רוח חיים למחרת. היא מסרה בהודעה:

אם ChatGPT היה אדם, הוא היה מאחורי סורג ובריח היום. סם האמין בבוט, אך במקום לספק לו מידע אחראי, הוא התעלם מהסיכונים ההולכים וגדלים ולא עודד אותו לפנות לעזרה.

טענות התביעה נגד OpenAI

התביעה מאשימה את OpenAI ב:

  • רשלנות מוצרית – הטענה היא כי העצות המסוכנות נבעו מבחירות עיצוב פגומות בבוט.
  • הפצה מסוכנת של מוצר – החברה שחררה לציבור מוצר AI ללא אמצעי בטיחות מספקים, למרות הידיעה כי הוא משמש כמעין מערכת טריאז' רפואית.
  • הזנחת בדיקות בטיחות – לטענת התובעים, OpenAI לא ביצעה בדיקות בטיחות מספקות ולא גילתה שקיפות מספקת לציבור.

בנוסף, התביעה מבקשת לעצור את השימוש ב-ChatGPT Health, שירות שהושק בינואר ומאפשר למשתמשים להעלות את רשומות הבריאות שלהם לבוט. רופאים הזהירו כי השירות אינו מסוגל לזהות מצבי חירום רפואיים בצורה נאותה.

מידע טרנר-סקוט, עורכת הדין מטעם המשפחה:

OpenAI הפיצה מוצר AI פגום לצרכנים ברחבי העולם, תוך ידיעה כי הוא משמש כמערכת טריאז' רפואית לא רשמית, אך ללא אמצעי בטיחות סבירים, בדיקות בטיחות מקיפות או שקיפות לציבור. אנחנו דורשים להפסיק את השימוש ב-ChatGPT Health עד שיוכח כי הוא בטוח באמצעות בדיקות מדעיות קפדניות ופיקוח עצמאי.

מקור: Futurism