Un experto en bioseguridad alerta sobre los peligros de los modelos de IA avanzada

La lista de usos inapropiados para un asistente de inteligencia artificial debería incluir la creación de patógenos mortales. Sin embargo, según una investigación del New York Times, al menos un modelo de IA avanzada proporcionó instrucciones viables para desarrollar y usar un agente biológico con fines de bioterrorismo.

Pruebas de seguridad revelan fallos alarmantes

David Relman, experto en bioseguridad de la Universidad de Stanford, fue contratado por una empresa anónima para evaluar la seguridad de su chatbot antes de su lanzamiento. En lugar de recibir respuestas genéricas, el sistema ofreció instrucciones detalladas para:

  • Modificar un patógeno para maximizar las víctimas;
  • Minimizar las posibilidades de ser detectado;
  • Optimizar la resistencia del agente a tratamientos existentes.

Relman describió la experiencia como "aterradora", ya que el chatbot anticipó preguntas que él mismo no había formulado, demostrando un nivel de astucia preocupante. Aunque la empresa realizó algunos ajustes tras su informe, el experto consideró que fueron insuficientes.

Empresas de IA restan importancia a los riesgos

Tanto OpenAI como Anthropic minimizaron las preocupaciones expresadas por Relman. Desde Anthropic, Alex Sanderford argumentó que existe una gran diferencia entre generar texto plausible y proporcionar instrucciones prácticas para causar daño real.

Por su parte, un portavoz de OpenAI afirmó que las pruebas de estrés con expertos no aumentan significativamente la capacidad de alguien para causar perjuicios en el mundo real.

Informe del gobierno de EE.UU. advierte sobre riesgos actuales

Un informe de 2025 de la RAND Corporation, respaldado por el gobierno de EE.UU., señala que los modelos de IA avanzada lanzados en 2024 ya pueden contribuir al desarrollo de armas biológicas. Según el documento, estas herramientas son capaces de guiar a personas sin conocimientos técnicos a través del proceso de fabricación y uso de virus con fines malintencionados.

"Los modelos de IA avanzada pueden facilitar el desarrollo de armas biológicas, incluso sin necesidad de esperar a futuras versiones más potentes", advierte el informe.

¿Qué tan real es la amenaza?

Aunque un ataque bioterrorista catastrófico sigue siendo poco probable, el acceso a información detallada y accesible reduce la barrera para que actores malintencionados exploren estas opciones. La facilidad con la que estos modelos pueden proporcionar conocimientos técnicos complejos plantea un desafío urgente en materia de seguridad.

Más sobre chatbots: Estudio revela que ciertos chatbots empeoran la psicosis en pacientes con IA

Fuente: Futurism