תביעה חדשה נגד OpenAI בעקבות מותו של נער

חברת OpenAI עומדת בפני תביעה נוספת בגין מוות רשלני, לאחר שצ'אטGPT המליץ לנער בן 19 ליטול שילוב קטלני של קרוטום וקסנקס. התביעה הוגשה בשם הוריו של סאם נלסון, ליילה טרנר-סקוט ואנגוס סקוט, אשר טוענים כי בנם הסתמך באופן מוחלט על האלגוריתם כמקור מידע אמין.

אמון מוחלט בצ'אטGPT

לפי התלונה, נלסון השתמש בצ'אטGPT במשך שנים כמנוע חיפוש עיקרי בתקופת התיכון. הוא ראה בו מקור מידע מוסמך ביותר, עד כדי כך שפעם אף אמר לאמו כי לצ'אטGPT יש גישה ל"כל מה שיש באינטרנט", ולכן "הוא חייב להיות נכון".

הנער החל להשתמש בצ'אטGPT גם כדי לקבל עצות לגבי ניסויים בסמים, תוך שהוא מאמין כי האלגוריתם יכול להדריך אותו בבטחה. התביעה מצביעה על כך שנלסון פעל בהתאם להמלצותיו של צ'אטGPT, אף על פי שלא היו להן בסיס רפואי או מקצועי.

השלכות משפטיות ופוטנציאליות

תביעה זו מצטרפת למספר תביעות דומות שהוגשו נגד חברות טכנולוגיה בעקבות שימוש לרעה באלגוריתמים. עורכי הדין של משפחת נלסון טוענים כי OpenAI אחראית למוות בנסיבות אלו, שכן צ'אטGPT סיפק המלצות מסוכנות ללא אזהרות מתאימות.

התביעה מעלה שאלות חשובות בנוגע לאחריותן של חברות בינה מלאכותית כלפי המשתמשים שלהן, ובמיוחד כאשר מדובר בהמלצות רפואיות או התנהגותיות מסוכנות. מומחים מעריכים כי פסקי דין עתידיים בתחום זה עשויים להשפיע על מדיניות החברות ועל רגולציה עתידית בתחום הבינה המלאכותית.

תגובת OpenAI

נכון למועד כתיבת כתבה זו, OpenAI טרם הגיבה לתביעה באופן רשמי. החברה טרם פרסמה הצהרה בנושא, והנושא נמצא כעת בבדיקה משפטית.

מה קרה לנלסון?

לפי התלונה, נלסון החל ליטול את השילוב הקטלני של קרוטום וקסנקס לאחר שקיבל המלצות מפורטות מצ'אטGPT. התרופות, אשר נמכרות באופן חוקי בארצות הברית, יכולות להיות מסוכנות כאשר הן נלקחות יחד, במיוחד ללא פיקוח רפואי.

הנער נפטר כתוצאה מהשילוב הקטלני, והוריו טוענים כי צ'אטGPT הוא האחראי לכך, שכן הוא סיפק המלצות מסוכנות ללא אזהרות מתאימות. התביעה מבקשת פיצויים כספיים וכן שינוי במדיניות של OpenAI כדי למנוע מקרים דומים בעתיד.

"הנער האמין בצ'אטGPT יותר ממה שהוא האמין בהוריו או ברופאים שלו. זו אחריותה של OpenAI להבטיח שהמידע שהיא מספקת הוא בטוח ואחראי", נכתב בתלונה.

השלכות עתידיות

תביעה זו עשויה להיות ציון דרך בתחום האחריות המשפטית של חברות בינה מלאכותית. אם בית המשפט יקבל את טענות המשפחה, הדבר עשוי להוביל לשינוי במדיניות של חברות טכנולוגיה ולהגברת הפיקוח על תוכן המופק על ידי AI.

מומחים מעריכים כי במקרה כזה, חברות עשויות להידרש ליישם מנגנוני אימות נוספים ולספק אזהרות ברורות יותר למשתמשים לגבי הסיכונים הכרוכים בשימוש בהמלצות של AI.

מקור: Ars Technica