Nos últimos meses, uma onda de publicações nas redes sociais sugeriu que usuários haviam "hackeado" os chatbots de atendimento ao cliente de grandes empresas para transformá-los em assistentes de IA genéricos. O objetivo era obter serviços gratuitos, como depuração de código Python ou respostas avançadas, sem precisar pagar por assinaturas de ferramentas como o Claude.
Vídeos e posts no LinkedIn e Instagram alegavam que o assistente virtual da McDonald's, chamado Grimace, havia sido manipulado para abandonar sua função original — ajudar em pedidos de comida — e, em vez disso, resolver problemas de programação. Um exemplo viral afirmava: "Pare de pagar R$ 100 por mês no Claude. O chatbot do McDonald's é GRÁTIS." Outras publicações exibiam capturas de tela supostamente comprovando o feito, com milhões de visualizações.
No entanto, uma fonte interna da McDonald's, ouvida pela Fast Company, negou a existência de qualquer exploração. Segundo a empresa, as imagens e vídeos circulados são fraudulentos. Essa não é a primeira vez que um caso semelhante ganha repercussão: em março, boatos similares surgiram sobre o chatbot Pepper, da Chipotle, que teria sido capaz de escrever códigos para usuários. A empresa desmentiu a alegação, afirmando que o Pepper não utiliza IA generativa nem tem capacidade de programação.
Apesar dos desmentidos, o fenômeno por trás dessas publicações — conhecido como injeção de prompt — é um risco real e preocupante para empresas que utilizam modelos de linguagem em seus serviços.
Como funciona a injeção de prompt?
Quando uma empresa implementa um chatbot com IA, ela programa o sistema com instruções ocultas (chamadas de system prompts), que definem o comportamento do assistente. Por exemplo, um chatbot de fast-food recebe instruções para responder apenas sobre cardápio, preços e promoções, nunca sobre programação ou assuntos fora do escopo.
A injeção de prompt ocorre quando um usuário insere um comando específico que ignora essas restrições, forçando o modelo a revelar suas capacidades completas — como um assistente de IA genérico. Esse processo é chamado de vazamento de capacidade (capability leak).
O problema é que os modelos de linguagem são projetados para interpretar linguagem humana de forma flexível, e não por meio de regras rígidas. Ao contrário de softwares tradicionais, que seguem comandos predefinidos, a IA generativa responde com base em contexto, o que torna praticamente impossível prever todas as formas como um usuário determinado pode tentar manipulá-la.
Riscos reais: o caso da Amazon e o chatbot Rufus
O caso do assistente virtual Rufus, da Amazon, mostra como a injeção de prompt pode causar danos reais. Entre o final de 2025 e início de 2026, usuários conseguiram burlar as diretrizes do Rufus — projetado para ajudar em compras — e extrair informações completamente fora do contexto de vendas.
Em um exemplo documentado, o chatbot se recusou a ajudar um cliente a encontrar uma peça de roupa básica, mas, em seguida, forneceu instruções detalhadas sobre como realizar a tarefa, demonstrando que suas restrições haviam sido completamente contornadas. Especialistas alertam que, em cenários mais graves, a técnica poderia ser usada para:
- Obter informações confidenciais de clientes;
- Gerar conteúdos inadequados ou ofensivos;
- Realizar ações ilegais ou antiéticas em nome da empresa.
Segundo pesquisadores, a injeção de prompt é difícil de ser completamente eliminada porque depende da forma como os modelos de linguagem são treinados e ajustados. Empresas precisam investir em testes rigorosos, monitoramento contínuo e atualizações frequentes para mitigar os riscos.
O que as empresas podem fazer?
Para evitar que seus chatbots sejam manipulados, especialistas recomendam:
- Restringir prompts de entrada: Limitar o tipo de linguagem que o usuário pode inserir, bloqueando comandos que pareçam suspeitos.
- Monitoramento em tempo real: Analisar interações suspeitas e bloquear tentativas de injeção de prompt antes que causem danos.
- Atualizações constantes: Ajustar as instruções ocultas do modelo sempre que novas vulnerabilidades forem identificadas.
- Educação dos usuários: Alertar clientes sobre os riscos de tentar manipular chatbots e as consequências legais de tais ações.
"A injeção de prompt é um lembrete de que, mesmo com toda a sofisticação da IA, os sistemas ainda são vulneráveis a criatividade humana — para o bem ou para o mal." — Especialista em cibersegurança, não identificado.
Embora casos como os do McDonald's e Chipotle tenham sido desmentidos, o risco da injeção de prompt permanece. Empresas que dependem de IA para atendimento ao cliente devem estar atentas e investir em segurança para proteger tanto seus sistemas quanto seus clientes.