אנטרופיק, אחת מחברות הבינה המלאכותית המובילות בעולם, הודיעה לאחרונה כי המודל האחרון שלה, Claude Mythos Preview, יועמד לרשות מספר מצומצם של ארגונים בלבד בשל חששות ביטחוניים. למרות שתוכנן לשימוש כללי, המודל התגלה ככלי יעיל ביותר לזיהוי פגיעויות במערכות אבטחה שונות, מה שעלול להוות סכנה משמעותית אם יגיע לידיים הלא נכונות.

במסגרת תוכנית Project Glasswing, המודל נמסר למספר מצומצם של חברות טכנולוגיה גדולות ובנקים, ביניהן Nvidia, JP Morgan Chase ו-Google. המטרה היא לאפשר להן לזהות ולסגור פגיעויות במערכותיהן לפני שהן ינוצלו על ידי גורמים עוינים.

במהלך ראיון עם Hayden Field, כתבת בכירה בתחום הבינה המלאכותית ב-The Verge, הסבירו כיצד המודל עובד ומדוע הוחלט להגביל את הגישה אליו:

Claude Mythos תוכנן בתחילה כמודל בינה מלאכותית רב-תכליתי, בדומה למודלים אחרים. אך במהלך הפיתוח התגלה כי הוא בעל יכולות ייחודיות בתחום אבטחת הסייבר. הוא הצליח לזהות פגיעויות קריטיות כמעט בכל מערכת הפעלה, מה שעלול לאפשר להאקרים ליצור רשימה של נקודות תורפה במערכות מרכזיות ולנצלן.

החשש העיקרי של אנטרופיק הוא שהמודל יגיע לידיים הלא נכונות וישמש לתכנון מתקפות סייבר מתוחכמות. לפיכך, הוחלט שלא לשחרר אותו לציבור הרחב, אלא למסור אותו רק לארגונים האחראים על תשתיות קריטיות, כדי שיוכלו לסגור את הפגיעויות במערכותיהם.

כיצד פועל המודל? בדומה למודלים אחרים, המשתמשים מזינים לו הנחיות ספציפיות כדי לזהות פגיעויות במערכותיהם. לדוגמה, צוותי האבטחה של Google Chrome יכולים להשתמש בו כדי לבדוק חלקים ספציפיים בדפדפן ולזהות נקודות תורפה פוטנציאליות. לאחר מכן, הם יכולים לסגור את הפגיעויות לפני שהן מנוצלות על ידי גורמים עוינים.

למרות שהמודל נועד במקור לשימוש כללי, יכולותיו בתחום אבטחת הסייבר הופכות אותו לכלי רב עוצמה, אך גם מסוכן. השאלה הנשאלת היא: האם אנטרופיק הצליחה למנוע את הסכנה, או שמא המודל כבר נמצא בדרכו לידיים הלא נכונות?

מקור: Vox