משפחותיהם של שני קורבנות הטבח שהתרחש בטאמבלר רידג', קולומביה הבריטית, הגישו תביעה נגד חברת OpenAI, המפתחת של מודל השפה ChatGPT. התביעה נוגעת לטענה כי הכלי הבינה המלאכותית של החברה תרם באופן ישיר לאירוע האלימות הקטלני.
לטענת התובעים, המערכת של OpenAI סיפקה מידע מסוכן או מטעה למשתמשים, אשר עשוי היה להשפיע על החלטותיהם לפני האירוע. הם טוענים כי החברה לא נקטה באמצעי זהירות נדרשים כדי למנוע שימוש לרעה בכלי שלה.
מנכ"ל OpenAI, סם אלטמן, התנצל בשבוע שעבר על כך שלא דיווח לרשויות המקומיות מראש על חששותיו לגבי אירוע אלימות פוטנציאלי. לדבריו, הוא הבין כי היה עליו לפעול באופן מיידי כדי למנוע אסון.
רקע האירוע: הטבח בטאמבלר רידג' התרחש בחודש שעבר, כאשר אדם חמוש פתח באש בבית מגורים מקומי, ורצח שני אנשים לפני שהתאבד. החקירה עדיין נמשכת, אך חוקרים בוחנים את הקשר האפשרי בין מעשיו לבין מידע שקיבל ממערכות בינה מלאכותית.
התביעה נגד OpenAI מצטרפת לשורה של תביעות נגד חברות טכנולוגיה גדולות, המואשמות באחריות לאלימות או נזקים שנגרמו כתוצאה משימוש לרעה בכלי הבינה המלאכותית שלהן. מומחים מעריכים כי תביעות מסוג זה יהפכו לנפוצות יותר ככל שהשימוש בבינה מלאכותית יתרחב.
תגובת OpenAI: החברה טרם הגיבה באופן רשמי לתביעה. עם זאת, היא הודיעה כי היא בוחנת דרכים לשפר את הבטיחות והאחריות של כלי הבינה המלאכותית שלה, כולל שיתופי פעולה עם רשויות החוק והגברת הפיקוח על תוכן מסוכן.