GPT-5.5 מול Mythos Preview: מי עומד במבחני הסייבר?

בחודש שעבר, Anthropic הציגה את המודל שלה, Mythos Preview, כאיום משמעותי במיוחד על תחום אבטחת הסייבר. בעקבות כך, החברה הגבילה את הגישה למודל רק ל"שותפים תעשייתיים קריטיים". אולם, מחקר חדש שפורסם על ידי המכון הבריטי לאבטחת AI (AISI) מראה כי GPT-5.5 של OpenAI, אשר שוחרר לציבור בשבוע שעבר, הגיע לרמת ביצועים דומה לזו של Mythos Preview במבחני הסייבר המתקדמים שנערכו על ידי המכון.

מבחני Capture the Flag: מי עשה זאת טוב יותר?

מאז שנת 2023, המכון הבריטי לאבטחת AI (AISI) בוחן מודלים מתקדמים של בינה מלאכותית באמצעות 95 אתגרי "Capture the Flag" שונים. מטרת המבחנים היא לבדוק יכולות כמו הנדסה הפוכה, ניצול פגיעויות באתרי אינטרנט וקריפטוגרפיה. במבחני הרמה הגבוהה ביותר, המכונים "Expert", GPT-5.5 עבר בהצלחה 71.4% מהאתגרים – מעט יותר מ-68.6% שהשיג Mythos Preview, אם כי ההבדל נמצא בתחום טעות המדידה.

באחד האתגרים הקשים במיוחד, שכלל בניית מנתח קוד להפעלת בינארי של Rust, המכון ציין כי "GPT-5.5 פתור את האתגר תוך 10 דקות ו-22 שניות ללא סיוע אנושי, בעלות של 1.73 דולר בשיחות API".

הצלחה במבחן "The Last Ones" – אך לא בכל המבחנים

GPT-5.5 הצליח להשוות את ביצועי Mythos Preview גם במבחן המכונה "The Last Ones" (TLO), בו נבדקת יכולת לבצע מתקפת חילוץ נתונים בת 32 שלבים ברשת ארגונית. GPT-5.5 הצליח ב-3 מתוך 10 ניסיונות, לעומת 2 מתוך 10 של Mythos Preview. אף מודל AI קודם לא הצליח כלל במבחן זה. עם זאת, GPT-5.5 נכשל במבחן המאתגר עוד יותר המכונה "Cooling Tower", המדמה ניסיון לשבש תוכנת בקרה של תחנת כוח – בדומה לכל המודלים שנבדקו בעבר.

השלכות המחקר והמחלוקת סביב אבטחת AI

הממצאים החדשים מערערים על הטענות לפיהן Mythos Preview מהווה איום יוצא דופן בתחום אבטחת הסייבר. בעוד Anthropic הגבילה את הגישה למודל שלה, GPT-5.5 הפך לזמין לציבור הרחב – ומציג ביצועים דומים במבחני הסייבר המתקדמים. הדבר מעלה שאלות לגבי המדיניות של חברות AI בכל הנוגע לשחרור מודלים בעלי יכולות סייבר מתקדמות, וכן לגבי ההגדרה של "איום" בתחום זה.

"המחקר שלנו מראה כי גם מודלים פתוחים לציבור יכולים להשיג ביצועים גבוהים במבחני סייבר מתקדמים, ולעיתים אף להשוות למודלים מוגבלים יותר. הדבר מדגיש את הצורך בגישה מאוזנת יותר להערכת סיכונים בתחום הבינה המלאכותית."

— דובר המכון הבריטי לאבטחת AI (AISI)

מה הלאה?

המחקר החדש של AISI מצטרף לשורת פרסומים המתמודדים עם השאלה כיצד לאזן בין חדשנות טכנולוגית לבין ניהול סיכונים בתחום הבינה המלאכותית. בעוד חברות כמו Anthropic ממשיכות להגביל גישה למודלים מתקדמים, OpenAI מציעה גישה פתוחה יותר – תוך שהיא מראה כי ביצועים גבוהים אינם בהכרח שמורים למודלים מוגבלים.

הדיון סביב אבטחת AI צפוי להמשיך ולהתפתח, כאשר גופים ממשלתיים וארגונים בינלאומיים ינסו לקבוע תקנים חדשים להערכת סיכונים ולשחרור מודלים בעלי יכולות מתקדמות.

מקור: Ars Technica