בשנים האחרונות התרגלנו לראות את ענקיות הטכנולוגיה ממהרות לפרוס יכולות חדשות של בינה מלאכותית ללא מעצורים, תוך התעלמות מהסכנות הפוטנציאליות. אך לאחרונה נרשמת תפנית: חברות AI מתחילות להגיד 'לא' למודלים מסוכנים, גם במחיר של האטת קצב הפיתוח.

הגבלת גישה למודלים מסוכנים: פרויקט Glasswing של Anthropic

חברת Anthropic הודיעה כי לא תפרוס באופן נרחב את המודל החדש שלה, Claude Mythos Preview, למרות יכולותיו המתקדמות. הסיבה? המודל זיהה אלפי פגיעויות חמורות במערכות הפעלה ודפדפנים מרכזיים, כולל Windows, macOS ו-Chrome. במקום זאת, החברה תגביל את הגישה לקונסורציום מצומצם של ארגונים כמו Amazon Web Services, Apple, Google, Microsoft ו-NVIDIA, לצד חברות אבטחה ופיתוח תשתיות קריטיות.

מטרת הפרויקט היא הגנה מוקדמת: לאתר ולסגור פרצות קטסטרופליות לפני שגורמים עוינים ינצלו אותן. ההחלטה נובעת גם מאינטרס עצמי: חברות אלו מעדיפות להיתפס כ'שומרות' ולא כ'פורצות דרך ללא אחריות'. בנוסף, השהיית ההפצה מאטה את המרוץ לחקות יכולות על ידי מתחרים.

ההחלטה מהווה שינוי תפיסתי בענף, שבו נהוג היה לטעון כי 'התקדמות בלתי נמנעת' מחייבת שחרור מיידי של כל יכולות חדשות. הפעם, Anthropic החליטה כי מודל בעל עוצמה כזו אינו יכול להימסר לציבור ללא הגבלות.

עימות עם הפנטגון: הגבלת שימוש צבאי בבינה מלאכותית

החברה נקלעה לעימות גלוי עם משרד ההגנה האמריקאי לאחר שהציבה מגבלות על שימוש במודלים שלה לצרכים צבאיים. Anthropic הגדירה שתי 'חריגות צרות' בלבד לשימוש צבאי: מעקב המוני בתחומי ארצות הברית ונשק אוטונומי.

על מעקב המוני, מנכ"ל החברה, דאריו אמודי, הסביר כי בינה מלאכותית יכולה להפוך נתונים מסחריים זמינים ל'תמונה מקיפה של חייו של כל אדם – באופן אוטומטי ובקנה מידה עצום'.

על נשק אוטונומי, הוא ציין כי המערכות המתקדמות כיום 'אינן אמינות מספיק' כדי להסיר לחלוטין את האדם מתהליך קבלת ההחלטות בנוגע להפעלת כוח קטלני.

למרות זאת, Anthropic לא התנגדה לשימוש במודלים שלה למטרות 'שגרתיות' של הרס והרג, כמו סיוע לתכנון מבצעים צבאיים. עם זאת, החברה דרשה להגביל את השימושים הללו באמצעות חוזים מחייבים. בתגובה, הפנטגון איים להחרים את החברה ולהכריז עליה כ'סיכון לביטחון הלאומי' לאחר שסירבה לוותר על ההגבלות.

תגובת הפנטגון: איומים והכרזות שווא?

הפנטגון הודיע כי יחתום על חוזים רק עם חברות AI המוכנות לקבל סעיף של 'כל שימוש חוקי', תוך ביטול ההגבלות שהציבה Anthropic. ההחלטה משקפת את המדיניות החדשה של משרד ההגנה תחת הנהגתו של מזכיר ההגנה פיט הגסט, הנוקטת בגישה נוקשה ואף נקמנית כלפי חברות שלא משתפות פעולה באופן מלא.

הסכסוך מעלה שאלות על גבולות האחריות של חברות טכנולוגיה מול דרישות הממשל. האם עליהן לציית לדרישות המדינה גם כאשר אלו מנוגדות לערכים של שקיפות ואחריות חברתית? והאם הפנטגון מוכן להקריב חדשנות לטובת שליטה מוחלטת?

שינוי מגמה בתעשיית הבינה המלאכותית

הצעדים של Anthropic אינם בודדים. גם חברות אחרות, כמו Google DeepMind ו-Microsoft, החלו להגביל גישה למודלים מתקדמים בשל חששות דומים. לדוגמה, Google הפסיקה להפיץ את המודל Gemini 1.5 Pro באופן ציבורי בשל חשש לניצול לרעה, והעבירה אותו לבדיקה פנימית בלבד.

השינוי נובע מהכרה גוברת בסכנות הפוטנציאליות של הבינה המלאכותית, שאינן מוגבלות רק לסרטי מדע בדיוני. בין הסכנות הנדונות:

  • סכנות תשתיתיות: תקלות במערכות קריטיות כמו רשתות חשמל, תחבורה ורפואה.
  • פגיעה בפרטיות: ניצול נתונים אישיים לצרכים זדוניים או מעקב המוני.
  • איומי סייבר: שימוש במודלים מתקדמים ליצירת מתקפות סייבר מתוחכמות יותר.
  • טשטוש הגבולות בין ציבורי לפרטי: שימוש במודלים לאיתור מטרות צבאיות או מעקב אחר אזרחים.

האם זה מספיק? הסיכונים הנותרים

למרות הצעדים החיוביים, מומחים מזהירים כי ההגבלות הנוכחיות אינן פתרון מלא. חברות רבות עדיין מפתחות מודלים מתקדמים ללא פיקוח מספק, והסכנות ממשיכות להתפתח. בנוסף, קיימת סכנה כי הגבלות יובילו לפיתוח 'בינה מלאכותית סודית' שתימצא בידי גורמים עוינים או מדינות עריצות.

"השאלה אינה האם חברות AI צריכות להגביל את עצמן, אלא כיצד ניתן לוודא שההגבלות יהיו אפקטיביות ומקיפות מספיק כדי להתמודד עם האיומים הממשיים." — מומחה לבינה מלאכותית, שלא ביקש להיחשף בשם.

הדילמה המרכזית נותרת: כיצד מאזנים בין קידום חדשנות לבין מניעת נזקים בלתי הפיכים? התשובה עשויה להגיע רק משיתוף פעולה גלובלי בין ממשלות, חברות טכנולוגיה וארגוני חברה אזרחית.

מקור: Reason