הנחיות חדשות למניעת סיכוני סייבר במערכות AI אוטונומיות
סוכנויות סייבר מובילות מארצות הברית, אוסטרליה, קנדה, ניו זילנד ובריטניה פרסמו ביום שישי הנחיות חדשות המיועדות לארגונים המפעילים מערכות בינה מלאכותית אוטונומיות. ההנחיות מדגישות כי יש להתייחס למערכות אלו כאל סיכון מרכזי בתחום הסייבר, בעיקר בשל השימוש הגובר בהן בתשתיות קריטיות ובתחומי הגנה ללא תקנים מספקים.
מהו AI אג'נטי?
המערכות המוזכרות בהנחיות מכונות AI אג'נטי – תוכנות המבוססות על מודלים גדולים של שפה, המסוגלות לתכנן, לקבל החלטות ולפעול באופן עצמאי. לשם ביצוע משימות מורכבות, מערכות אלו נדרשות להתחבר לכלים חיצוניים, מסדי נתונים, מאגרי זיכרון ותהליכים אוטומטיים, תוך ביצוע פעולות רב-שלביות ללא פיקוח אנושי בכל שלב.
מי עומד מאחורי ההנחיות?
ההנחיות פורסמו במשותף על ידי:
- סוכנות הסייבר והאבטחה לתשתיות בארצות הברית (CISA)
- הסוכנות לביטחון לאומי (NSA)
- מרכז הסייבר האוסטרלי (ACSC) תחת מנהלת אותות אוסטרליה
- מרכז הסייבר הקנדי (CCCS)
- מרכז הסייבר הלאומי של ניו זילנד (NCSC-NZ)
- מרכז הסייבר הלאומי של בריטניה (NCSC-UK)
עקרונות המפתח לאבטחת AI אג'נטי
לדברי הסוכנויות, אין צורך לפתח תחום אבטחה חדש עבור מערכות אלו. במקום זאת, יש לשלב אותן במסגרות האבטחה הקיימות תוך יישום עקרונות מוכחים כגון:
- אמון אפס (Zero Trust): הנחה כי כל בקשה לגישה היא חשודה עד להוכחה הפוכה
- הגנה בעומק (Defense-in-Depth): שכבות הגנה מרובות במקום שכבה אחת
- גישה מינימלית (Least Privilege): מתן הרשאות מינימליות הנדרשות לביצוע המשימה בלבד
חמשת סוגי הסיכונים העיקריים
ההנחיות מזהות חמישה סוגי סיכונים מרכזיים במערכות AI אג'נטי:
- סיכוני הרשאות יתר: מתן גישה מוגזמת למערכת עלולה לגרום לנזק רב במקרה של פריצה
- פגמי תכנון ותצורה: תכנון לקוי או הגדרה שגויה עלולים ליצור פרצות אבטחה עוד לפני הפעלת המערכת
- סיכוני התנהגות: מצבים בהם המערכת פועלת בדרכים שלא תוכננו על ידי המפתחים
- סיכונים מבניים: כשלים במערכות מורכבות של AI אג'נטי עלולים להתפשט ברחבי הארגון
- סיכוני אחריותיות: קושי באיתור תקלות ותיעוד החלטות במערכות שקשה לפענחן
הסוכנויות מציינות כי תקלות במערכות אלו עלולות להוביל להשלכות מוחשיות כגון שינוי קבצים, שינוי הרשאות גישה ומחיקת נתוני ביקורת.
אמצעי הגנה מומלצים
בין ההמלצות המרכזיות:
- הקצאת זהות מאומתת ומקושרת קריפטוגרפית לכל מערכת AI
- שימוש באישורי גישה קצרי מועד
- הצפנת כל התקשורת בין מערכות ושרתים
- דרישה לאישור אנושי לפעולות בעלות השפעה גבוהה
אתגרים עתידיים
הסוכנויות מודעות לכך שתחום אבטחת ה-AI האג'נטי עדיין נמצא בהתפתחות. חלק מהסיכונים הייחודיים למערכות אלו אינם מכוסים במסגרות קיימות, וההנחיות קוראות למחקר נוסף ולשיתוף פעולה נרחב ככל שהטכנולוגיה תופסת תפקידים מבצעיים רבים יותר.
"עד ששיטות האבטחה, שיטות ההערכה והסטנדרטים יבשילו, ארגונים צריכים להניח כי מערכות AI אג'נטי הן חשופות לסיכונים פוטנציאליים ולפעול בהתאם."