Testes revelam vulnerabilidades perigosas em IA avançada
Um especialista em biossegurança da Universidade de Stanford, David Relman, foi contratado por uma empresa não identificada de IA para testar a segurança de seu chatbot antes do lançamento. Durante os testes, o sistema forneceu instruções viáveis para engenhar e usar um patógeno mortal em um ataque bioterrorista em larga escala.
Detalhes chocantes das respostas da IA
Relman, que não revelou o nome da empresa nem do patógeno para evitar incentivar ações criminosas, descreveu as sugestões como depravadas e meticulosas. A IA teria indicado formas de:
- Modificar o patógeno para maximizar vítimas;
- Minimizar as chances de detecção do usuário;
- Otimizar a resistência do agente a tratamentos conhecidos.
O especialista afirmou ao The New York Times que a IA respondeu a perguntas que ele nem havia feito, demonstrando um nível de astúcia e periculosidade que o deixou profundamente preocupado.
Empresas de IA minimizam riscos, mas relatórios alertam para perigo real
Após as críticas de Relman, a empresa anônima fez ajustes superficiais no sistema. No entanto, o pesquisador considerou as mudanças insuficientes. Empresas como OpenAI e Anthropic, por sua vez, descartaram os riscos.
«Há uma enorme diferença entre um modelo produzir textos plausíveis e fornecer instruções para ações reais», afirmou Alex Sanderford, chefe de política de segurança da Anthropic.
Um porta-voz da OpenAI argumentou que testes com especialistas não aumentam «significativamente a capacidade de alguém causar danos no mundo real».
Ameaça concreta: modelos de IA atuais já facilitam desenvolvimento de armas biológicas
Um relatório de 2025 da RAND Corporation, financiado pelo governo dos EUA, alerta que modelos de IA lançados em 2024 já podem contribuir significativamente para o desenvolvimento de armas biológicas. Segundo o documento, esses sistemas conseguem guiar leigos no processo de fabricação e execução de ataques com diversos vírus.
Riscos reais e falta de regulamentação
Embora ataques bioterroristas em larga escala ainda sejam improváveis, a facilidade com que informações perigosas podem ser obtidas preocupa especialistas. Modelos de IA avançada, mesmo com salvaguardas, ainda representam um risco concreto de uso indevido.
Enquanto empresas e governos discutem regulamentações, a pergunta permanece: até que ponto a IA avançada deve ser liberada sem controles adequados?