גרסה מוגבלת של GPT-5.5 למגיני סייבר מאומתים
OpenAI הודיעה ביום חמישי כי היא משחררת גרסה מוגבלת של מודל הבינה המלאכותית שלה, GPT-5.5 המכונה בשם הקוד 'Spud', למגיני סייבר מאומתים. הגרסה החדשה, המכונה GPT-5.5-Cyber, נועדה לסייע לאנשי אבטחת מידע בארגונים קריטיים לזהות ולטפל בפגיעויות תוכנה.
יכולות דומות ל-Mythos של Anthropic
על פי בדיקות אבטחה אחרונות, GPT-5.5-Cyber מצליח להתקרב לביצועי המודל Mythos Preview של Anthropic בזיהוי וניצול פגיעויות תוכנה. במקרה אחד, המודל הצליח להשלים מתקפת סייבר סימולטיבית בת 32 שלבים ב-2 מתוך 10 ניסיונות, בעוד ש-Mythos הצליח לעשות זאת ב-3 מתוך 10 ניסיונות. לפני Mythos, אף מודל בינה מלאכותית לא הצליח להשלים את המשימה הזו.
גישה שונה לאבטחת מידע
OpenAI ו-Anthropic נוקטות בגישות שונות להפצת הכלים שלהן למגיני סייבר. Anthropic בחרה בגישה מצמצמת יותר, ומאפשרת גישה ל-Mythos לכ-40 ארגונים בלבד. חלק מאותם ארגונים משתתפים בפרויקט Glasswing, שבו הם משתפים מידע על אופן בדיקת המודל.
מנגד, OpenAI מאמצת גישה פתוחה יותר: היא משחררת גרסה אחת של המודל עם מגבלות מחמירות יותר, ובו בזמן מפיצה גרסה נוספת עם פחות מגבלות לארגונים שמגישים בקשה לגישה.
יכולות חדשות למגיני סייבר
הגרסה החדשה של GPT-5.5-Cyber מיועדת לסייע למגיני סייבר בכתיבת הוכחות קונספט לפגיעויות שזוהו, הרצת סימולציות לבדיקת עמידות הארגון בפני תקיפות, הבנת קוד לא מוכר, מיפוי משטחים פגיעים וסקירת תיקוני תוכנה. עם זאת, המודל עדיין מוגבל מפעולות מסוימות כמו גניבת אישורים או כתיבת תוכנות זדוניות.
דיון דחוף בוושינגטון ובסיליקון ואלי
הפצת הכלים החדשים מעוררת דיון דחוף בקרב גורמים בוושינגטון ובסיליקון ואלי על האופן שבו יש להגביל את הגישה למודלים אלו כדי למנוע שימוש לרעה על ידי גורמים עוינים. הבית הלבן דן כעת בסדרת פעולות מנהליות שיכולות לשנות את מעורבות הממשל בהפצת מודלים עתידיים.
מה צפוי בהמשך?
- דיון בוושינגטון: הבית הלבן בוחן פעולות מנהליות חדשות שישפיעו על הפצת מודלים עתידיים.
- התפתחויות טכנולוגיות: המרוץ לפתח כלים יעילים יותר לאבטחת תשתיות קריטיות הואץ בעקבות ההתקדמות המהירה בתחום הבינה המלאכותית.
- שיתוף פעולה בין חברות: Anthropic ו-OpenAI ממשיכות לבחון דרכים שונות להפצת הכלים שלהן תוך שמירה על אבטחה מרבית.