תובעת המדינה של פלורידה, אשלי מודי, פתחה בחקירה נגד חברת OpenAI בחשד להפרת זכויות יוצרים באמצעות השימוש ב-ChatGPT. החקירה מתמקדת בטענות כי הטכנולוגיה שימשה להפצת תוכן מזויף ומידע כוזב, תוך פגיעה בזכויות היוצרים של יוצרי תוכן מקוריים.
במקביל, משפחתו של אחד מקורבנות הטבח שהתרחש באוניברסיטת פלורידה בשנת 2018 הגישה תביעה נגד OpenAI. התביעה טוענת כי החברה אחראית להפצת תוכן מזויף הקשור לאירוע באמצעות מודלי השפה שלה, אשר גרם לנזק נוסף למשפחה ולציבור הרחב.
לטענת התובעים, OpenAI לא נקטה באמצעים מספקים כדי למנוע שימוש לרעה בטכנולוגיה שלה, וכי החברה התעלמה מאזהרות חוזרות על הפצת מידע כוזב באמצעות פלטפורמותיה. התביעה דורשת פיצויים כספיים וכן הקמת מנגנוני פיקוח מחמירים יותר כדי למנוע שימוש דומה בעתיד.
רקע על המקרה:
בשנת 2018 אירע טבח באוניברסיטת פלורידה בו נרצחו עשרות סטודנטים. האירוע זכה לסיקור נרחב בתקשורת, ומאז הופצו ברשתות החברתיות ובפלטפורמות דיגיטליות תיאוריות קשר ותכנים מזויפים רבים הקשורים לאירוע. משפחות הקורבנות טענו כי תכנים אלה גרמו להם לנזק רגשי נוסף ולפגיעה בפרטיותם.
תגובת OpenAI:
נציגי החברה מסרו בתגובה כי הם לוקחים ברצינות רבה את הטענות המועלות בתביעה ובחקירה, וכי הם פועלים למיגור תוכן מזויף באמצעות שיתופי פעולה עם גורמי אכיפה וטכנולוגיות מתקדמות לזיהוי תוכן כוזב. החברה הודיעה כי תבחן מחדש את מדיניותה ותגביר את הפיקוח על תוכן הנוצר באמצעות מודלי השפה שלה.
השלכות אפשריות:
- השפעה על רגולציה: החקירה והתביעה עשויה להוביל לרגולציה מחמירה יותר על חברות טכנולוגיה המפעילות מודלי שפה גדולים, ולחייב אותן באחריות משפטית על תוכן הנוצר באמצעותן.
- שינוי במדיניות החברות: חברות כמו OpenAI עשויות להידרש ליישם מנגנוני אימות מחמירים יותר ולהגביל את הגישה למודלי השפה שלהן כדי למנוע שימוש לרעה.
- השפעה על הציבור: הצרכנים עשויים להיות חשופים פחות למידע כוזב ולתכנים מזויפים, אך מנגד ייתכן שפלטפורמות דיגיטליות יהפכו פחות נגישות או יעילות בשל הגבלות חדשות.