בשבועות האחרונים התפשטו ברשת סרטונים ותמונות שטוענים כי משתמשים הצליחו להכריח את בוט השירות של מקדונלד'ס לוותר על תפקידו המקורי ולעסוק במשימות שאינן קשורות למזון, כמו ניפוי קוד Python מורכב. סרטונים אלה, שזכו למיליוני צפיות, הציגו לכאורה את הבוט 'גרימס' כעוזר AI חינמי במקום שירות לקוחות ממותג. עם זאת, מקור פנימי בחברה אישר ל-Fast Company כי לא נמצאו עדויות להתרחשות כזו, וכי התמונות והסרטונים המופצים הם מזויפים.
מקרה דומה אירע במרץ השנה, כאשר הופצו ברשת טענות דומות לגבי בוט השירות של צ'יפוטלה, 'פפר', שנטען כי הוא מסוגל לכתוב קוד תוכנה עבור משתמשים. דוברת החברה, סאלי אוונס, הבהירה ל-CIO כי הפוסט הוויראלי היה מזויף וכי הבוט אינו משתמש ב-AI גנרטיבי ואינו מסוגל לקודד.
למרות שמדובר בהונאות, הטכניקה שמאחוריהן – המכונה 'הזרקת פרומפטים' – היא אמיתית ומהווה סיכון ממשי לחברות. כאשר חברה מפעילה מודל AI, היא מגדירה לו הנחיות נסתרות (system prompts) שמגבילות את פעילותו לתחום מסוים, למשל: 'אתה עוזר לקוחות בתחום המזון'. הזרקת פרומפט מתרחשת כאשר משתמש מזין קלט ספציפי שמעקף את ההנחיות הללו, וחושף את המודל הגנרי שמסתתר מאחוריהן. תופעה זו מכונה 'דליפת יכולות'.
הסכנה האמיתית טמונה בכך שמודלי שפה גדולים נועדו להגיב באופן גמיש לשפה אנושית, ולא לפקודות נוקשות. בניגוד לתוכנה מסורתית עם חוקים קבועים, ה-AI מפרש הקשר באופן דינמי, מה שמקשה על החברות לחזות כל ניסיון מניפולטיבי מצד המשתמשים.
דוגמה מוחשית לסיכון היא המקרה של 'רופוס', עוזר הקניות של אמזון. בין סוף 2025 לתחילת 2026, הצליחו משתמשים לעקוף את ההנחיות של הבוט ולגרום לו לחשוף מידע שאינו קשור לקניות, כמו עזרה באיתור פרטי לבוש. במקרה אחר, הבוט סירב בתחילה לסייע במשימה פשוטה, אך לאחר מניפולציה מסוימת, הצליח לספק את מבוקש המשתמש.
המומחים מזהירים כי למרות שהמקרים הוויראליים הם לרוב מזויפים, הסיכון האמיתי טמון ביכולת של גורמים עוינים לנצל את הפגיעות הזו למטרות זדוניות, כגון גניבת מידע או ביצוע פעולות בלתי חוקיות באמצעות הבוטים של החברות.