В последние месяцы в социальных сетях разгорелся новый вирусный тренд: пользователи утверждают, что обманным путём заставляют AI-ботов компаний выполнять нестандартные задачи. Например, недавние публикации на LinkedIn и Instagram уверяли, что клиентский бот McDonald’s, получивший имя Grimace, якобы начал исправлять код на Python вместо того, чтобы отвечать на вопросы о меню. Один из постов гласил: «Зачем платить $20 в месяц за Claude, если AI McDonald’s — бесплатный?»
Эти утверждения быстро набрали популярность: на платформе X (бывший Twitter) пост с упоминанием «ботанизированного» Grimace набрал 1,6 миллиона просмотров и 30 тысяч лайков. Однако, как сообщил источник изданию Fast Company, внутреннее расследование McDonald’s не выявило никаких доказательств взлома. Представители компании считают, что все скриншоты и видео — подделка.
Это не первый случай. В марте аналогичная история возникла вокруг бота Chipotle Pepper, который якобы мог писать программный код. Салли Эванс, представитель Chipotle, опровергла эти слухи в интервью изданию CIO: «Вирусный пост был сфабрикован. Pepper не использует генеративный AI и не способен кодировать».
Однако реальная угроза существует. Речь идёт о так называемой prompt injection — технической уязвимости, при которой пользователи подменяют системные инструкции AI, заставляя его игнорировать установленные ограничения. Например, боту может быть прописано, что он должен отвечать только на вопросы о меню, но хакерская команда способна «убедить» его выполнять другие задачи.
Эксперты отмечают, что генеративные модели реагируют на контекст, а не на жёсткие команды, что делает их уязвимыми для таких атак. В отличие от традиционного программного обеспечения, где правила фиксированы, AI интерпретирует запросы динамически — и предсказать все возможные варианты почти невозможно.
Примером реальной угрозы стал AI-ассистент Amazon Rufus. В 2025–2026 годах пользователи сумели обойти его ограничения, заставив бот выдать информацию, не связанную с покупками. Исследователи продемонстрировали, как внутренняя логика бота была полностью нарушена: в одном случае Rufus отказался помочь клиенту найти одежду, но затем выдал нерелевантный ответ.
Почему prompt injection опасна для бизнеса
- Утечка данных: Хакеры могут извлекать конфиденциальную информацию, скрытую в системных подсказках.
- Репутационные риски: Если бот начнёт давать некорректные или оскорбительные ответы, это ударит по имиджу компании.
- Юридические последствия: AI, выполняющий противозаконные запросы (например, помощь в обходе правил), может создать проблемы для бизнеса.
Как компании защищаются
Эксперты рекомендуют несколько мер для снижения рисков:
- Фильтрация ввода: Ограничение типов запросов, которые может обрабатывать бот.
- Мониторинг активности: Анализ нестандартных паттернов поведения пользователей.
- Обучение сотрудников: Предупреждение сотрудников о возможных атаках и обучение их реагированию на инциденты.
Несмотря на вирусные фейки, угроза prompt injection остаётся актуальной. Компании продолжают совершенствовать защиту своих AI-систем, чтобы предотвратить несанкционированное использование.