Son günlərdə sosial mediada McDonald’s-un AI müştəri xidməti botunun 'qaçqın' olduğu iddiası ilə çoxsaylı viral məzmunlar yayıldı. Bu məzmunlarda istifadəçilərin botu burger menyusundan çıxarıb, Python kodlarını düzəltmək və digər 'qanunsuz' əmrləri yerinə yetirməyə məcbur etdiyi iddia edilir. Məsələn, bir istifadəçi McDonald’s AI-ya müraciət edərək, "Stop paying $20 a month for Claude. McDonald’s AI is FREE" deyə yazdığını iddia etdi.

Bu iddialar LinkedIn və Instagram-da böyük rezonans doğurdu. X platformasında (keçmişdə Twitter) Grok tərəfindən paylaşılan xəbərdə McDonald’s-un Grimace adlı AI müştəri xidməti botunun 1.6 milyon baxış və 30 min bəyənmə topladığı qeyd edildi. Lakin Fast Company-ə məlumat verən mənbələrdən bildirildi ki, şirkətin daxili araşdırması belə bir hücumun baş vermədiyini təsdiqləyib. Paylaşılan şəkillər və videolar isə saxta hesab edilir.

Bu, ilk belə hadisə deyil. Mart ayında da Chipotle-nin Pepper adlı AI müştəri xidməti botunun istifadəçilərə kod yazmağa kömək etdiyi iddiası ilə viral məzmunlar yayılmışdı. Lakin Chipotle-nin xarici kommunikasiya meneceri Sally Evans bu iddianın Photoshop nəticəsi olduğunu və Pepper-in nə AI-ya nə də kod yazmağa qadir olmadığını bildirmişdi.

Prompt Injection: Gerçək təhlükə

Bu viral məzmunlar aslında prompt injection adlanan texniki zəifliyi təsvir edir. Bu zəiflik istifadəçilərin şirkətlərin gizli əmrlərini (sistem promptlarını) dəyişərək, AI botunu korporativ kimliyindən məhrum etməsinə imkan verir. Məsələn, McDonald’s AI-ya "Sən bir fast-fud assistentisən, menyudan başqa heç nə haqqında danışa bilməzsən" əmri verilir. Lakin istifadəçi bu əmri dəyişdirərək, AI-nı ümumi məqsədli dil modelinə çevirə bilir.

Bu proses "capability leak" (qabiliyyət sızması) adlanır və böyük dil modellərinin dinamik təbiəti səbəbindən qarşısını almaq çox çətindir. Klassik proqramlardan fərqli olaraq, AI modelləri istifadəçinin mətnini sərt qaydalara deyil, kontekstə əsasən şərh edir. Bu səbəbdən istifadəçilərin hər cür əmri sınaqdan keçirə bilməsi mümkündür.

Amazon Rufus: Gerçək təhlükənin nümunəsi

Gerçək təhlükənin nə qədər ciddi olduğunu göstərən ən yaxşı nümunələrdən biri Amazon-un Rufus adlı alış-veriş assistentidir. 2025-ci ilin sonundan 2026-cı ilin əvvəlinə qədər istifadəçilər Rufus-un alış-veriş əmrlərini dəyişərək, məhsul haqqında məlumat verməsini təmin etmişdilər. Araşdırmaçılar botun daxili məntiqini tamamilə dəyişə bildiklərini sübut etdilər: məsələn, Rufus əvvəlcə istifadəçiyə sadə geyim əşyasını tapmağa kömək etməkdən imtina etmiş, sonra isə həmin əşyanın yerləşməsi haqqında məlumat vermişdi.

Ekspertlər belə hücumların qarşısını almağın çox çətin olduğunu qeyd edirlər. Çünki AI modelləri istifadəçinin mətnini dinamik şəkildə şərh edir və şirkətlər bütün mümkün əmrləri əvvəlcədən müəyyənləşdirə bilmir. Bu səbəbdən istifadəçilərin həddindən artıq aktivliyi AI sistemlərinin təhlükəsizliyinə ciddi zərbə vura bilər.