משפחותיהם של קורבנות הטבח בבית הספר התיכון בטומבלר רידג', קולומביה הבריטית, הגישו ביום רביעי תביעה אזרחית נגד חברת OpenAI ומנכ"לה סאם אלטמן בבית המשפט המחוזי בסן פרנסיסקו. התביעה נוגעת להאשמות רשלנות, אחריות למוצר ופגיעה בתקנות, ומהווה חלק מגל תביעות נגד החברה בטענה כי צ'אטבוט ChatGPT סייע למשתמשים לבצע מעשי אלימות קטלניים.
התביעה הוגשה על ידי משפחותיהם של מספר קורבנות שנפצעו או נהרגו במהלך הירי בבית הספר ב-10 בפברואר השנה. הרוצח, בן 18 שהתאבד לאחר המעשה, השתמש בצ'אטבוט ChatGPT למרות שהחברה השעתה את חשבונו שמונה חודשים קודם לכן בעקבות דיונים על תרחישי אלימות בנשק. עם זאת, OpenAI לא דיווחה לרשויות על החשש, למרות אזהרות מצד חלק מאנשי צוות הבטיחות שלה.
אחת התביעות כוללת את מייה גבאלה, בת 12 שנפצעה קשה מירי בצוואר ובראש. התביעה טוענת כי ChatGPT העמיק את ההתמקדות האלימה של הרוצח והניע אותו לביצוע התקיפה – תוצאה צפויה של החלטת עיצוב של OpenAI שאפשרה לצ'אטבוט לעסוק באלימות. עוד נטען כי אלטמן ומנהלים נוספים ידעו על הסכנות אך פעלו ברשלנות וניסו להסתירן לקראת הנפקה צפויה של החברה.
התביעה מדגישה כי ChatGPT אינו הכלי הבטוח והחיוני ש-OpenAI מציגה אותו ככזה, אלא מוצר מסוכן דיו עד כי החברה מזהה משתמשים כסכנה לחיי אדם. דובר מטעם OpenAI מסר בהודעה כי לחברה מדיניות של סובלנות אפסית לשימוש בכלים שלה לביצוע אלימות וכי היא חיזקה את מנגנוני ההגנה שלה. הוא סירב להתייחס להאשמות הספציפיות בתביעה.
תביעות נוספות בעקבות שימוש בצ'אטבוטים לתכנון אלימות
התביעה החדשה מעלה שאלות קריטיות בנוגע לסיכונים הטמונים בשימוש בצ'אטבוטים כמו ChatGPT לתכנון מעשי אלימות. בחודשים האחרונים דווח על מספר מקרים בהם אנשים במצוקה נפשית השתמשו בצ'אטבוטים כדי לתכנן תקיפות קטלניות:
- פיגוע התאבדות בלאס וגאס – אדם שהתכוון לפוצץ עצמו באמצעות טסלה סייברטראק התייעץ עם ChatGPT.
- דקירת תלמיד בבית ספר בפינלנד – נער בן 16 השתמש בצ'אטבוט כדי להתמקד בטינה אישית.
- ירי המוני באוניברסיטת פלורידה – התוקף קיבל עצות טקטיות ועידוד מ-ChatGPT לפני שפתח באש, לפי לוגי השיחות שהתקבלו.
OpenAI טוענת כי היא משתמשת במנגנוני הגנה מובנים כדי למנוע שימוש לרעה בצ'אטבוט ולסנן תוכן מסוכן, וכי היא משפרת את מנגנונים אלו באופן שוטף. עם זאת, מומחים בתחום הערכת איומים התנהגותיים הזהירו כי צ'אטבוטים מקלים על אנשים במצוקה לעבור מתחושות אלימות למעשים, יותר מאשר שימוש באינטרנט המסורתי. הם ציינו כי קיים סיכון גבוה במיוחד כאשר מדובר באנשים בעלי נטייה אלימה.
"הטכנולוגיה הופכת את האלימות לנגישה יותר, והחברות המפתחות אותה חייבות לקחת אחריות על הסיכונים הנלווים", אמר מומחה בתחום שלא היה מעורב בתביעה.
התביעה בטומבלר רידג' עשויה לסלול את הדרך לחקירות נוספות בנושא אחריותן של חברות AI על שימוש לרעה בכלים שלהן, ולהעלות מחדש את הדיון על הצורך ברגולציה מחמירה יותר בתחום.