Acuerdos estratégicos para potenciar la inteligencia artificial militar
El Pentágono ha anunciado la firma de acuerdos con siete empresas tecnológicas, entre las que destacan Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection y SpaceX, para integrar sus sistemas de inteligencia artificial (IA) en redes militares clasificadas. Según el Departamento de Defensa, esta colaboración permitirá "aumentar la capacidad de decisión de los combatientes en entornos operativos complejos".
Exclusión de Anthropic y disputas éticas
La lista de empresas no incluye a Anthropic, que mantuvo un conflicto público con la administración Trump por los riesgos éticos y de seguridad asociados al uso de IA en conflictos armados. El Departamento de Defensa ha acelerado su adopción de IA en los últimos años, aunque su implementación plantea preocupaciones sobre la privacidad de los ciudadanos y la autonomía de las máquinas en la selección de objetivos.
Uno de los proveedores ha incluido en su contrato cláusulas que exigen supervisión humana en situaciones críticas, reflejando las dudas sobre el uso militar de esta tecnología.
Riesgos y controversias en el uso de IA en conflictos
Las preocupaciones sobre el empleo de IA en operaciones militares se intensificaron tras el conflicto entre Israel y grupos armados en Gaza y Líbano. Empresas tecnológicas estadounidenses colaboraron con Israel para rastrear objetivos, pero el aumento de víctimas civiles generó críticas sobre la eficacia y ética de estas herramientas.
Helen Toner, directora ejecutiva interina del Centro para la Seguridad y Tecnología Emergente de la Universidad de Georgetown, advirtió sobre los riesgos de una dependencia excesiva de la IA en el campo de batalla:
"Gran parte de la guerra moderna se basa en personas en centros de mando analizando información en tiempo real para tomar decisiones complejas. Los sistemas de IA pueden ayudar a resumir datos o identificar posibles objetivos en transmisiones de vigilancia, pero aún quedan preguntas sobre los niveles adecuados de supervisión humana, los riesgos y la formación necesaria para su uso."
Toner también planteó desafíos clave: ¿Cómo implementar estas herramientas con rapidez para obtener una ventaja estratégica sin comprometer la formación de los operadores o generar una confianza excesiva en la tecnología?
Demandas y tensiones con Anthropic
Anthropic exigió garantías en su contrato de que el Pentágono no utilizaría su tecnología en armas autónomas ni en la vigilancia de ciudadanos estadounidenses. El secretario de Defensa, Pete Hegseth, respondió que la empresa debía permitir usos legales según la interpretación del Departamento.
Anthropic demandó al gobierno tras la orden de Trump de bloquear el uso de su chatbot Claude en agencias federales, y Hegseth intentó clasificarla como un riesgo para la cadena de suministro, una medida destinada a proteger sistemas de seguridad nacional de posibles sabotajes extranjeros.
En marzo, OpenAI anunció un acuerdo con el Pentágono para reemplazar a Anthropic en entornos clasificados, confirmando su participación con su modelo ChatGPT.