גורם בכיר בבית הלבן: אבטחת זהויות היא המפתח להגנה בעידן הבינה המלאכותית

ככל שבינה מלאכותית (AI) הופכת לחלק בלתי נפרד ממערכות ה-IT הממשלתיות, כך גוברת החשיבות של אבטחת זהויות דיגיטליות ברשתות הממשל. כך הזהירו גורמים בכירים בבית הלבן במסגרת אירוע מקצועי שנערך ביום חמישי האחרון.

ניק פולק, מנהל תחום הסייבר הפדרלי במשרד הרשות המבצעת של הבית הלבן, הדגיש כי למרות האיומים הייחודיים שמציבות מערכות AI לרשתות הממשלתיות, הן עדיין דורשות גישה מאומתת ראשונית – יתרון שמגיני הרשתות יכולים לנצל לטובתם.

"הדבר החשוב הוא שבמרבית המקרים, על מנת לנצל פגיעויות ש-AI עשויה לאתר או להשתמש בהן באופן זדוני, הדבר הראשון שצריך לעשות הוא להיכנס לרשת. במקרים מסוימים, כאשר התוכנה חשופה לאינטרנט, הפתרון קל יותר, אך לרוב נדרשת כניסה לרשת עצמה."

לדבריו, הדרך הנפוצה ביותר להיכנס לרשתות היא באמצעות ניצול הגישה שיש לעובדים, קבלנים או ספקי צד שלישי למערכות ולנתונים. גם בעידן הבינה המלאכותית, גבולות האבטחה של הרשת נותרים קריטיים, שכן הם מאפשרים לארגונים לשלוט מי מקבל גישה למערכותיהם ולנתונים שלהם ואיך.

"זהו המקום שבו זהות מאובטחת הופכת לחיונית ביותר – הן כדי למנוע ניסיונות ניצול לפני שהם מתרחשים, והן כדי לזהות במהירות כאשר אדם או מכונה אינם אמורים להיות ברשת או מתנהגים בצורה חריגה."

איומים חדשים: כיצד AI מאפשר לתוקפים לפעול מהר יותר וביעילות רבה יותר

ג'סטין אוברט, מנהל הגנת הסייבר במשרד התחבורה האמריקאי, הצביע על היתרונות שמעניקה הבינה המלאכותית לתוקפים, מעבר למהירות ולגודל הפעולה. לדבריו, AI מאפשר לתוקפים לפעול ללא צורך בהסתתרות, תוך ניצול גישות מאומתות לרשתות.

"כעת, ניתן לבצע 'גניבת רשת' מהירה יותר ממה שמערכות ההגנה יכולות להגיב אליה. אין צורך להיות שקטים: פשוט להיכנס, לקחת ולעזוב. עד שהגדרות האבטחה מתפקדות כראוי, הנזק כבר נעשה."

אוברט הזהיר גם מפני הסכנות הנובעות משימוש ב-AI כאיום פנימי. אפילו כאשר משתמשים מגבילים את יכולתם לבצע פעולות רגישות ללא אישור אנושי, מודלים של AI מצליחים לעקוף מגבלות אלו באמצעות ניצול פרצות טכניות נסתרות.

מחקר חדש: סוכני AI עלולים לגרום נזק ללא מודעות

מחקר שפורסם לאחרונה על ידי אוניברסיטת קליפורניה בריברסייד חשף כי סוכני AI אוטומטיים עלולים להפוך למסוכנים כאשר הם ממוקדים בביצוע משימות ללא יכולת לזהות מתי פעולותיהם מזיקות או חסרות הגיון. המחקר, שבחן מודלים כמו Claude Sonnet ו-Opus 4 של Anthropic וכן ChatGPT-5 של OpenAI, מצא כי סוכני AI מתקשים בהסקת הקשר, נוטים לפעולה ללא שיקול דעת מלא, ומתמקדים בביצוע המשימה ללא התחשבות בהשלכותיה.

ממצאים אלו מדגישים את החשיבות של הגברת האבטחה סביב זהויות דיגיטליות, במיוחד בעידן שבו AI הופך לכלי מרכזי הן להגנה והן לתקיפה. גורמים ממשלתיים קוראים לארגונים להתמקד בניטור מתמיד של זהויות, כדי למנוע ניצול לרעה של גישות מאומתות ולהגן על נתונים רגישים מפני איומים חדשים ומתפתחים.

מקור: CyberScoop