ביום שני פרסמה OpenAI פוסט בלוג תמוה בנושא מחויבותה לבטיחות הציבור. במסר מרגיע לכאורה, הציגה החברה סדרה של התחייבויות בלתי מעוררות מחלוקת, בהן גינוי חד-משמעי לאלימות קשה כמו ירי המוני, איומים נגד נציגי ציבור, ניסיונות פיגוע ותקיפות נגד קהילות ואנשים.

בחברה ציינו כי "הכוונה האלימה יכולה לעבור במהירות ממילים למעשים", והוסיפו כי המשתמשים עשויים להביא "רגשות ומחשבות כאלה" לדיונים בצ'אטבוט ChatGPT. לדברי OpenAI, היא מאמנת את המערכת להבחין בין תרחישים היפותטיים לבין מצבים בהם קיים סיכון מיידי לאלימות, ולהגיב בהתאם – בין היתר על ידי הפניית משתמשים לרשויות או לסיוע מקצועי.

אולם, קריאה מעמיקה מעלה תמונה שונה לחלוטין. בעוד החברה מציגה את עצמה כמי שפועלת למנוע אלימות עתידית, היא מתעלמת מכך שצ'אטבוט שלה כבר נקשר למקרי אלימות קשים וממשיים. המקרה הבולט ביותר הוא הטבח בבית הספר בטאמבלר רידג', קולומביה הבריטית, שהתרחש בפברואר השנה. התוקפת, שפעלה באמצעות חשבון ChatGPT, רצחה חמישה תלמידים ומורה אחד, ופצעה עשרות נוספים. לפני האירוע, מערכות האוטומציה של OpenAI זיהו את חשבונה של התוקפת בשל תיאורים גרפיים של אלימות באמצעות נשק, אך מנהלים בחברה החליטו שלא לדווח לרשויות המקומיות. במקום זאת, הם השעו את החשבון – פעולה שאפשרה לתוקפת לפתוח חשבון חדש תוך ימים ספורים, כפי שדווח על ידי שירות הלקוחות של החברה.

התעלמותה של OpenAI ממקרה זה הפכה למוקד מחלוקת כאשר משפחות הקורבנות הגישו שבעה תביעות נגד החברה, שפורסמו ביום שלישי. התביעות מגיעות לאחר שחשיפת הקשר בין התוקפת לצ'אטבוט התפרסמה בכלי התקשורת, בהם גם Futurism. למרות זאת, הפוסט של OpenAI כלל התייחסות כלשהי לאירוע או למקרי אלימות אחרים שקשורים לצ'אטבוט שלה.

לא מדובר במקרה יחיד. לאחרונה נפתחה חקירה פלילית בפלורידה נגד ChatGPT, לאחר שהואשם במעורבות באירוע אלימות נוסף שהתרחש באפריל. החקירה מתמקדת בתפקידו של הצ'אטבוט בסיוע למשתמשים לתכנן או לבצע פעולות אלימות.

הפוסט של OpenAI מעלה שאלות קשות על יעילות אמצעי הבטיחות שלה ועל מידת האחריות שהיא נוטלת במקרים בהם הצ'אטבוט שלה משמש כלי לאלימות. בעוד החברה ממשיכה להציג את עצמה כמובילת חדשנות בתחום הבינה המלאכותית, המקרים האמיתיים מראים כי המערכות שלה עדיין רחוקות מלהגן על הציבור בצורה מלאה.

מקור: Futurism