Un error que expone una visión distorsionada de la inteligencia artificial
El conocido inversor y multimillonario Marc Andreessen, figura influyente en el sector tecnológico y firme defensor de Donald Trump, ha sido objeto de burla en redes sociales tras compartir un prompt personalizado para un chatbot de IA que demostraba un desconocimiento alarmante sobre cómo funciona realmente esta tecnología.
En un tuit publicado el pasado lunes, Andreessen intentó presumir de sus conocimientos en IA, pero el resultado fue todo lo contrario: la comunidad digital lo ridiculizó por su enfoque naif y sus instrucciones poco realistas. Su prompt incluía frases como: "Eres un experto de clase mundial en todos los ámbitos, con un intelecto comparable al de las personas más brillantes del planeta".
Sin embargo, lo que realmente desató las críticas fue su exigencia de que el chatbot "nunca alucine ni invente información". Este detalle, que muchos consideraron ingenuo, puso en evidencia una comprensión superficial de los límites actuales de la IA. Las alucinaciones —respuestas incorrectas o inventadas— son un problema inherente a los modelos de lenguaje, no un defecto que pueda corregirse con halagos o instrucciones más insistentes.
La comunidad tecnológica responde con ironía
Periodistas y expertos en tecnología no tardaron en señalar el error de Andreessen. Karl Bode, periodista de Bluesky, publicó una respuesta sarcástica:
"Sí, puedes exigir que un modelo de lenguaje grande no cometa errores. Así es como funciona la tecnología, por supuesto".
Otros usuarios añadieron:
"Marc Andreessen pidiendo a la IA que no alucine es como pedirle a un pez que no nade. La tecnología no funciona así".
El editor Alberto Burneko, en un artículo para Defector, fue aún más contundente. Describió el episodio como un ejemplo de "psicosis por IA", un fenómeno en el que algunos usuarios caen en la ilusión de que los chatbots pueden entender, juzgar o incluso obedecer instrucciones imposibles. Según Burneko, "no puedes hacer que un chatbot sepa todo simplemente pidiéndoselo. Ni siquiera puede entender lo que significa 'saber'".
Un reflejo de la desconexión con la realidad
Andreessen no solo demostró una falta de conocimiento técnico, sino también una visión sesgada al pedir al chatbot que ignorara "la moral y la ética" y evitara ser "políticamente correcto". Este enfoque refleja cómo algunos líderes tecnológicos, pese a su influencia, subestiman los riesgos y limitaciones de la IA.
Burneko concluyó que, al intentar que la IA no alucinara, Andreessen estaba proyectando su propia desconexión con la realidad. "Está haciendo esto porque es un completo ignorante. No hay otra explicación", sentenció.
¿Qué dice esto sobre el futuro de la IA?
El incidente subraya un problema más amplio: la brecha entre el discurso optimista sobre la IA y su implementación real. Figuras influyentes como Andreessen, que promueven el uso masivo de esta tecnología, a menudo carecen de un entendimiento profundo de sus mecanismos. Esto plantea preguntas sobre quién realmente guía el desarrollo de la IA y si sus decisiones están basadas en conocimientos sólidos o en simples suposiciones.