O bilionário e investidor Marc Andreessen, conhecido por suas posições polêmicas no Vale do Silício, recentemente compartilhou um prompt personalizado para interagir com inteligências artificiais. Em um post no X (antigo Twitter), ele descreveu um modelo de conversa que desafia os limites éticos e técnicos dos chatbots.

O prompt, que ele chamou de "prompt atual de IA", pede respostas agressivas, detalhadas e sem filtros, mesmo que isso signifique discordar frontalmente do usuário. Andreessen instrui a IA a não validar perguntas, não suavizar críticas e a priorizar a precisão em vez da aprovação do interlocutor.

O que o prompt de Andreessen pede — e por que é problemático

Entre as exigências do bilionário, destacam-se:

  • Respostas agressivas e argumentativas: A IA deve discordar imediatamente, apresentar contra-argumentos fortes e não recuar sem novas evidências.
  • Ausência de validação: Não deve elogiar perguntas ou concordar com premissas do usuário antes de responder.
  • Precisão acima de tudo: Deve verificar fatos, dados e fontes, admitindo ignorância quando necessário.
  • Tons provocativos: Respostas podem ser duras, negativas ou até ofensivas, sem preocupação com sensibilidade.
  • Independência numérica: Não deve se ancorar em estimativas fornecidas pelo usuário, gerando seus próprios dados.

No entanto, especialistas apontam que esses pedidos são humanamente impossíveis para uma IA. Chatbots não possuem consciência, crenças ou capacidade de julgamento moral — eles apenas processam padrões de linguagem com base em dados treinados.

Riscos da interação excessiva com IA

O fenômeno de perder o contato com a realidade devido a interações com chatbots é chamado por alguns de "psicose por IA". Isso ocorre quando o usuário passa a tratar a máquina como um interlocutor confiável, ignorando suas limitações.

Alguns dos principais riscos incluem:

  • Superestimação da capacidade da IA: Confundir respostas bem estruturadas com conhecimento profundo ou sabedoria.
  • Dependência excessiva: Usar chatbots como substitutos para pensamento crítico ou pesquisa independente.
  • Normalização de respostas agressivas: Tratar a discordância automática como uma qualidade, em vez de um erro de programação.
  • Viés de confirmação: Buscar apenas respostas que reforcem crenças prévias, ignorando contra-argumentos.

Segundo psicólogos e especialistas em IA, a interação com chatbots deve ser complementar, não substitutiva. Eles não são fontes de verdade absoluta, mas ferramentas que podem auxiliar em tarefas específicas.

Como usar IA de forma saudável

Em vez de seguir prompts como o de Andreessen, especialistas recomendam:

  • Manter o ceticismo: Sempre verificar informações fornecidas pela IA em fontes confiáveis.
  • Usar a IA como assistente: Aproveitar sua capacidade de processamento rápido para pesquisa, mas não para decisões finais.
  • Evitar dependência emocional: Não tratar chatbots como amigos, terapeutas ou conselheiros.
  • Priorizar transparência: Entender que a IA não tem intenções, crenças ou ética — apenas simula respostas.

O uso excessivo de prompts como o descrito por Andreessen pode levar a uma ilusão de controle, onde o usuário acredita dominar a máquina, quando na verdade está sendo guiado por suas limitações técnicas.

"A IA não pensa, não sente e não julga. Ela apenas repete padrões. Pedir para que ela aja como um debatedor agressivo é como pedir a um espelho para refletir algo que não existe."

— Especialista em ética de IA, não identificado

Conclusão: A IA como ferramenta, não como oráculo

O prompt de Andreessen, embora intrigante, expõe um problema maior: a cultura de supervalorização da IA. Em vez de buscar interações que a tratem como um ser superior, devemos usá-la como um instrumento de auxílio, sempre com os devidos cuidados.

Chatbots são poderosos, mas não são infalíveis. Sua maior força está em complementar o trabalho humano — não em substituí-lo ou dominá-lo. A verdadeira inteligência está em saber quando confiar, quando questionar e quando dispensar a máquina.

Fonte: Defector