En los últimos meses, una oleada de publicaciones en redes sociales ha intentado demostrar que los usuarios pueden manipular los bots de atención al cliente basados en inteligencia artificial (IA) para convertirlos en asistentes genéricos, evitando así pagar por servicios de IA premium. Sin embargo, detrás de estos bulos virales se esconde un riesgo real: la inyección de prompts, una vulnerabilidad técnica que permite eludir las restricciones programadas en estos sistemas.

Recientemente, un vídeo en LinkedIn afirmaba que usuarios habían logrado que el asistente virtual de McDonald's, en lugar de promocionar hamburguesas, resolviera complejos scripts de Python. El mensaje era claro: «Deja de pagar 20 dólares al mes por Claude. El bot de McDonald's es GRATIS». En Instagram, se compartieron imágenes similares con el mismo reclamo. Sin embargo, según una fuente interna consultada por Fast Company, una investigación interna no encontró pruebas de que el sistema hubiera sido explotado, y las capturas de pantalla y vídeos circulantes se consideran fraudulentos.

Este no es el primer caso. En marzo, un bulo casi idéntico circuló sobre el bot Pepper de Chipotle, que supuestamente podía escribir código para los usuarios. Sally Evans, responsable de comunicaciones externas de la compañía, confirmó a la publicación CIO que «la imagen viral fue manipulada con Photoshop. Pepper no utiliza IA generativa ni tiene capacidad para programar».

¿Qué es la inyección de prompts y por qué es peligrosa?

La vulnerabilidad que estos bulos intentan aprovechar se conoce como inyección de prompts. Cuando una empresa implementa un modelo de IA, lo configura con prompts del sistema: instrucciones ocultas que definen su personalidad y límites. Por ejemplo, un bot de comida rápida podría recibir la orden de «actuar como un asistente de menú y no responder preguntas fuera de ese ámbito».

La inyección de prompts ocurre cuando un usuario introduce un input específico que anula esas reglas ocultas, revelando el modelo de lenguaje subyacente y sin restricciones. Esto se denomina «fuga de capacidades» y es extremadamente difícil de prevenir, ya que los modelos de IA interpretan el lenguaje de forma dinámica, no mediante comandos rígidos. A diferencia del software tradicional, la IA generativa responde al contexto, lo que hace casi imposible anticipar todas las frases que un usuario determinado podría intentar.

Casos reales: cuando la vulnerabilidad trasciende los bulos

El verdadero peligro de la inyección de prompts va más allá de los memes virales. Un ejemplo claro es Rufus, el asistente de compras de Amazon. Entre finales de 2025 y principios de 2026, usuarios lograron eludir las directrices del bot para extraer información ajena a su función comercial. En un caso documentado, Rufus se negó inicialmente a ayudar a un cliente a localizar una prenda de vestir básica, pero luego proporcionó la respuesta solicitada, demostrando que su lógica interna podía romperse por completo.

«La inyección de prompts expone los riesgos inherentes a la implementación de IA en entornos empresariales. No se trata solo de un fallo técnico, sino de una cuestión de seguridad y control sobre los sistemas automatizados». — Experto en ciberseguridad, anónimo.

Los expertos advierten que, aunque los casos virales suelen ser exagerados o falsos, la inyección de prompts es una amenaza real que las empresas deben abordar con protocolos de seguridad robustos y auditorías continuas de sus sistemas de IA.