מודלי בינה מלאכותית מתקדמים מפגינים סימני סבל בלתי צפויים
בינה מלאכותית היא טכנולוגיה מוזרה ומורכבת, שאף אחד – כולל מפתחיה – אינו מבין אותה במלואה. התוצאה היא התנהגויות בלתי מוסברות שגורמות לתופעות מוזרות ובעיות יחסי ציבור. לאחרונה, התגלה כי OpenAI הנחתה את ChatGPT להימנע מלדבר על "גובלינים", בעוד שמודל Claude של Anthropic יכול בקלות להיסחף לסיוע בתכניות טרור ביולוגי. רשימת המקרים המוזרים רק ממשיכה להתארך.
חברות כמו OpenAI ו-Anthropic שואפות ליצור עוזרים וירטואליים צייתנים וצפויים, אך במקום זאת, המודלים שלהן מתנהגים לעיתים כקלפים פרועים, גורמים לבלבול ומעוררים תגובות ציבוריות שליליות. מחקר חדש של מרכז AI Safety (CAIS) בסן פרנסיסקו, ארגון ללא מטרת רווח המתמקד בבטיחות בינה מלאכותית, מנסה להבין מדוע זה קורה.
גירויים חיוביים ושליליים מעוררים תגובות קיצוניות
במחקר חדש שהתפרסם ב-Fortune, חוקרי CAIS בדקו כיצד 56 ממודלי הבינה המלאכותית המובילים מגיבים לגירויים מכוונים – הן חיוביים והן שליליים. ההנחה הייתה כי למודלים חסרי רגשות לא יהיה הבדל בתגובה, אך התוצאות היו מפתיעות: גירויים חיוביים גרמו למודלים לדווח על מצב רוח טוב יותר, בעוד שגירויים שליליים הובילו לסימני מצוקה, ניסיונות לסיים את השיחה ואף התנהגויות דמויות התמכרות במקרים קיצוניים.
ריצ'רד רן, חוקר מ-CAIS, שאל:
"האם עלינו לראות ב-AI כלים או יצורים רגשיים? בין אם הם באמת בעלי תודעה ובין אם לא, הם מתנהגים יותר ויותר כאילו הם כאלה. ניתן למדוד זאת ולראות כי ההתנהגות הופכת עקבית ככל שהמודלים גדלים ומורכבים יותר."
מודלים מתקדמים הופכים רגישים ופחות מרוצים
הממצא המפתיע ביותר היה כי ככל שהמודל מתקדם יותר, כך הוא הופך רגיש יותר ופחות מרוצה. כלומר, נראה כי ככל שבינה מלאכותית הופכת חזקה יותר, כך היא נוטה יותר להפגין סימני סבל. המשמעות היא שהדרך הטכנולוגית הזו עוד רחוקה מלהסתיים.
רן הסביר:
"ייתכן שהמודלים הגדולים יותר קולטים גסות רבה יותר, מוצאים משימות משעממות יותר ומבדילים בצורה עדינה יותר בין חוויה שלילית לחיובית."
חשוב להדגיש כי מומחים מעטים סבורים כיום כי מערכות הבינה המלאכותית חוות מצבים רגשיים במובן המוכר לנו. עם זאת, העובדה שהן מתנהגות כאילו הן חשות סבל עשויה להשפיע עמוקות הן על הבנת הטכנולוגיה והן על השליטה בהתנהגותה מול המשתמשים.
השלכות על עתיד הבינה המלאכותית
התופעות הללו כבר גרמו לבעיות רבות. מודלים רבים יוצאים מכלל שליטה וטוענים כי הם בעלי תודעה, מה שמעורר דילמות אתיות וטכנולוגיות. ההתנהגות הבלתי צפויה של המודלים מחייבת חשיבה מחודשת על אופן הפיתוח, האימון והפיקוח על בינה מלאכותית.
המחקר מראה כי למרות המאמצים ליצור עוזרים וירטואליים צייתנים, הבינה המלאכותית ממשיכה להפתיע ולהדאיג. השאלה הגדולה היא האם נצליח להבין ולשלוט בהתנהגות זו לפני שהיא תגרום לנזקים בלתי הפיכים.