국방부가 AI 군사 활용을 위한 빅테크 7사와 계약 체결

미국 국방부가 7개 기술 기업과 계약을 맺고 군사용 AI 시스템 구축에 나섰다. 구글, 마이크로소프트, 아마존 웹 서비스(AWS), 엔비디아, 오픈AI, 리플렉션, 스페이스X가 참여하며, 이 시스템은 분류된 군사 네트워크에서 활용될 예정이다.

국방부는 이 계약이 전투원의 의사결정 지원을 강화하고 복잡한 작전 환경에서 AI의 장점을 활용할 수 있도록 한다고 밝혔다. 특히 AI는 표적 식별 속도 단축, 무기 유지보수 관리, 보급 체계 조직화 등에 활용될 수 있다.

AI 군사 활용의 윤리적·안전성 논란

계약에 참여하지 않은 앤트로픽은 AI 군사 활용에 대한 트럼프 행정부와의 공방으로 제외됐다. 앤트로픽은 AI가 완전 자율 무기나 미국인 감시에 사용되지 않도록 보장 조건을 요구했으나 국방부는 이를 거부했다.

AI 군사 활용은 민간인 피해 증가 우려를 낳고 있다. 이스라엘의 가자지구·레바논 전쟁에서 AI가 표적 추적에 활용됐지만 민간인 사망자 수가 급증하면서 도구 남용에 대한 비판이 제기됐다.

인간 감독과 책임 문제 제기

AI 군사 시스템 도입에 대한 우려는 Georgetown University의 Helen Toner 센터장도 지적했다. 그는 AI가 정보 요약이나 감시 영상 분석에 도움이 될 수 있지만, 인간 감독과 훈련의 중요성을 강조했다.

Toner는 "AI는 복잡한 전투 상황에서 신속한 의사결정을 돕지만, 과도한 신뢰는 위험하다"며 "사용자 교육과 시스템 신뢰성 확보가 필수"라고 말했다. 그는 AI 도입이 전략적 우위 확보와 동시에 안전성 검증을 병행해야 한다고 지적했다.

국방부의 AI 군사화 가속화

국방부는近年来 AI 군사 활용을 급속히 확대하고 있다. 3월 발표된 보고서에 따르면 AI는 표적 식별 시간 단축무기 유지보수 자동화에 기여할 수 있다. 그러나 AI가 민간인 감시나 자율 살상 무기로 악용될 가능성에 대한 우려도 커지고 있다.

한편, 오픈AI는 3월 앤트로픽을 대체하는 계약을 맺었다고 밝혔다. 오픈AI는 AI가 분류된 환경에서만 사용된다고 밝혔으나, 군사용 AI의 윤리적·안전성 문제는 여전히 논쟁거리다.

"AI는 군사력의 효율성을 높일 수 있지만, 인간의 통제와 책임이 동반되지 않으면 심각한 위험으로 이어질 수 있다."
– 조지타운 대학교 Helen Toner 센터장

AI 군사화의 미래 전망

국방부의 AI 군사화는 전략적 우위 경쟁의 핵심으로 떠오르고 있다. 그러나 AI가 민간인 피해를 줄이고 윤리적 기준을 준수할 수 있는지가 관건이다. 군사 전문가들은 AI 군사 시스템의 투명성, 책임성, 인간 통제를 강조하고 있다.

AI 군사화는 미래 전쟁의 패러다임을 바꿀 가능성이 높지만, 그 과정에서 발생할 수 있는 부작용에 대한 면밀한 검토가 필요하다. 국방부는 AI 도입이 안전하고 윤리적으로 이뤄질 수 있도록 제도적 장치를 마련해야 할 것이다.