חוקרים בגוגל חשפו מתקפת סייבר מתוחכמת שבה האקרים ניצלו בינה מלאכותית כדי לאתר ולנצל פרצה לא ידועה במערכת של החברה. על פי הדיווח, המתקפה נבלמה בסופו של דבר, אך היא מהווה אזהרה חמורה לגבי יכולותיהם הגוברות של גורמים עוינים בתחום הסייבר.

פרצה מסוכנת שהתגלתה באמצעות בינה מלאכותית

במסמך שפורסם על ידי קבוצת המחקר של גוגל, נכתב כי ישנה "סבירות גבוהה" שהאקרים השתמשו במודל בינה מלאכותית כדי לאתר ולנצל פרצה מסוג zero-day – פגם במערכת שלא היה ידוע למפתחיה. פרצה כזו מאפשרת לתוקפים לבצע פעולות זדוניות ללא ידיעת הצוותים הטכניים, עד שיתגלו ויסגרו אותה.

במקרה זה, הפרצה שהתגלתה הייתה מסוגלת לעקוף את אימות הדו-שלבי במערכת ניהול מבוססת אינטרנט בקוד פתוח, אך רק אם התוקפים היו בעלי שם משתמש וסיסמה של הקורבן. יכולת זו מהווה סכנה חמורה, שכן אימות דו-שלבי נחשב לקו ההגנה האחרון עבור רוב המשתמשים, והסיסמאות שלהם עלולות להיות חלשות או כבר דלופות.

על פי הדיווח, התוקפים תכננו לנצל את הפרצה במתקפה המונית, אך גוגל הצליחה לזהות ולסכל אותה בזמן. "התוקפים התכוונו להשתמש בפרצה במתקפה רחבת היקף, אך גילוי מוקדם שלנו מנע זאת", נכתב בדו"ח.

האיום הגובר של בינה מלאכותית בתחום הסייבר

זו הפעם הראשונה שתועדה מתקפת סייבר שבה בינה מלאכותית שימשה לאיתור וניצול פרצה מסוג zero-day. ג'ון הולטקוויסט, אנליסט ראשי בקבוצת המחקר של גוגל, אמר ל-ניו יורק טיימס כי מדובר ב"טעימה ממה שעוד יבוא". לדבריו, "אנו מאמינים שזהו רק קצה הקרחון. הבעיה כנראה גדולה בהרבה; זו רק ההוכחה המוחשית הראשונה שאנו יכולים לראות".

החשש מפני יכולותיה של הבינה המלאכותית בתחום הסייבר גובר בעקבות פרסומה של מודל Claude Mythos של חברת Anthropic בחודש שעבר. החברה טענה כי המודל מסוגל לאתר פרצות zero-day "בכל מערכת הפעלה מרכזית ובכל דפדפן אינטרנט מרכזי" כאשר המשתמש מבקש זאת. יכולת זו כה מסוכנת, עד שהחברה החליטה לשתף את המודל רק עם קבוצת מצומצמת של חברות וסוכנויות ממשלתיות.

החשש מפני איומי הסייבר של הבינה המלאכותית נובע מיכולתה המשופרת לכתוב ולנתח קוד, יכולת הנמצאת בשימוש הולך וגובר בענפי הטכנולוגיה והפיננסים. חוקרי גוגל מצאו כי התוכנה הזדונית ששימשה במתקפה הכילה מאפיינים ייחודיים של קוד שנוצר על ידי בינה מלאכותית, כגון:

  • Docstrings – הערות מפורטות בקוד שמסבירות את פעולתו;
  • טקסטים "מזויפים" או לא מדויקים;
  • מבנה קוד מאורגן וסטנדרטי, המאפיין נתוני אימון של מודלי שפה גדולים.

השלכות עתידיות והאתגרים הניצבים בפני עולם הסייבר

החוקרים בגוגל מזהירים כי מתקפות מסוג זה עשויות להפוך לנפוצות יותר בעתיד הקרוב. יכולת הבינה המלאכותית לאתר פרצות באופן אוטומטי מעלה את רף האיום על חברות וארגונים, ומאלצת אותם להדק את אמצעי ההגנה שלהם.

גוגל קוראת לחברות טכנולוגיה ולתעשייה כולה לשתף פעולה ולפתח כלים מתקדמים יותר לזיהוי וניטרול איומים מסוג זה. "אנו חייבים להבין כי בינה מלאכותית היא כלי רב עוצמה גם עבור התוקפים", אמר הולטקוויסט. "המשימה שלנו היא להישאר צעד אחד קדימה".

"זו רק ההתחלה. הבינה המלאכותית הופכת לכלי מרכזי עבור גורמים עוינים, ויכולותיה רק ילכו ויגברו. עלינו להתכונן לאתגרים שיבואו בעקבות זאת."
ג'ון הולטקוויסט, אנליסט ראשי בגוגל Threat Intelligence Group

מקור: Futurism