米国防総省は5日、7社とのAI技術活用に関する契約を発表した。Google、Microsoft、Amazon Web Services(AWS)、NVIDIA、OpenAI、Reflection、SpaceXが参加し、分類された軍事ネットワーク上でAIを活用することで、戦場における意思決定の支援を目指す。
防衛総省によると、これらの企業は「複雑な作戦環境下における戦闘員の意思決定を強化する」ためのリソースを提供する。一方で、AI企業Anthropicは契約リストから外れた。同社はトランプ政権とAIの戦争利用に関する倫理的・安全性の議論で対立し、法廷闘争に発展していたためだ。
防衛総省は近年、AI活用を急速に拡大している。3月に発表されたブレナン・センター・フォー・ジャスティスの報告書によると、AIは戦場における目標の特定・攻撃までの時間短縮や、兵器の整備・補給ラインの管理に貢献する可能性がある。
しかし、AIの軍事利用には懸念も根強い。米国民のプライバシー侵害や、機械による目標選定のリスクが指摘されている。契約企業の1社は、特定の状況下で人間による監督が必要との条件を契約に盛り込んでいる。
イスラエルのガザ・レバノン侵攻では、米テック大手がイスラエル軍を支援し、目標追跡システムを提供していたとされる。しかし、民間人の犠牲者数が急増し、AIツールが無実の人々の死につながったのではないかとの懸念が広がっている。
AI軍事利用の是非に関する議論
ジョージタウン大学の安全保障・新興技術センターの暫定エグゼクティブ・ディレクター、ヘレン・トナー氏は、戦場におけるAIの過度な依存に対する懸念を指摘する。
「現代の戦争は、モニター越しに複雑な状況を判断する司令官たちに支えられている。AIは監視映像の要約や潜在的な目標の特定などで有用だが、人間の関与やリスク管理、訓練の在り方について議論が続いている」
同氏はさらに、「これらのツールを迅速に展開し戦略的優位性を確保する一方で、オペレーターの訓練を徹底し、過信を防ぐ仕組みが必要だ」と述べた。
Anthropicは契約に対し、軍が同社の技術を完全自律型兵器や米国民の監視に使用しないことを保証するよう求めていた。防衛長官のピート・ヘグセス氏は、軍が合法と判断したあらゆる用途を許可すると応じた。
Anthropicはトランプ前大統領(共和党)が同社のチャットボット「Claude」の連邦政府機関による使用を全面禁止し、同社を「サプライチェーンリスク」と指定しようとしたことで提訴に至った。OpenAIは3月に、分類環境下でAnthropicに代わる形でChatGPTを提供する契約を発表していた。同社は声明でこれを確認している。
軍事AIの未来と課題
防衛総省の動きは、AI技術が軍事戦略の中核となる可能性を示す一方で、倫理的・法的な課題も浮き彫りにしている。今後、人間の監督体制や責任の所在、国際的な規制の枠組みなどが議論の焦点となるだろう。