Pentagon’dan AI ortaklığı: Google, Nvidia ve diğerleriyle gizli anlaşmalar
ABD Savunma Bakanlığı (Pentagon), yedi büyük teknoloji şirketiyle yapay zekayı gizli askeri ağlarda kullanmak üzere anlaşma imzaladığını duyurdu. Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection ve SpaceX, askeri operasyonlarda AI destekli karar alma süreçlerini güçlendirecek kaynaklar sağlayacak.
Savunma Bakanlığı yaptığı açıklamada, bu anlaşmaların "karmaşık operasyonel ortamlarda savaşçıların karar verme süreçlerini desteklemek" amacı taşıdığını belirtti. Ancak AI kullanımına dair etik ve güvenlik kaygıları nedeniyle Anthropic şirketi listenin dışında kaldı.
AI’nin savaşlardaki rolü: Hız kazandırıyor, riskleri artırıyor
AI’nin askeri alanda kullanımı, hedeflerin tespit ve vuruş sürelerini kısaltırken, silah bakım ve lojistik organizasyonunu da kolaylaştırıyor. Brennan Center for Justice tarafından yayınlanan bir raporda, AI’nin bu avantajlarına dikkat çekildi. Ancak AI’nin hedef seçimi, gizlilik ihlalleri ve masum sivillerin zarar görmesi gibi riskleri de beraberinde getirdiği vurgulandı.
Bu endişeler, İsrail’in Gazze ve Lübnan’daki operasyonlarında ABD merkezli teknoloji şirketlerinin hedef tespiti için AI araçlarını kullanmasıyla daha da arttı. AI destekli sistemlerin sivil kayıpları artırdığına dair endişeler, Pentagon’un son anlaşmalarını gölgeledi.
İnsan denetimi ve etik sorunlar devam ediyor
Georgetown Üniversitesi Güvenlik ve Gelişen Teknolojiler Merkezi’nin geçici yöneticisi Helen Toner, AI’nın askeri alanda kullanımına dair endişeleri dile getirdi:
"Modern savaşın büyük kısmı, komuta merkezlerinde monitörlerin karşısında oturan insanların hızlı ve karmaşık durumlara karar verdiği sistemlere dayanıyor. AI, bu süreçte verilerin özetlenmesi veya gözetleme görüntülerinin analiz edilmesi gibi alanlarda yardımcı olabilir. Ancak insan müdahalesinin düzeyi, riskler ve eğitim gibi konular henüz net değil."
Toner, AI araçlarının hızlı bir şekilde devreye alınmasının yanı sıra, operatörlerin doğru şekilde eğitilmesi ve AI’ye aşırı güvenilmemesi gerektiğini vurguladı.
Anthropic’in reddi ve OpenAI’nin yükselişi
AI şirketi Anthropic, Pentagon’un AI anlaşmalarına katılmadı. Şirket, askeri kullanım için AI teknolojisinin tamamen otonom silah sistemlerinde veya ABD vatandaşlarının gözetiminde kullanılmaması gerektiğini savunuyordu. Savunma Bakanı Pete Hegseth, şirketin taleplerini reddederek, Pentagon’un yasal gördüğü her kullanımda AI’nin devreye girebileceğini açıkladı.
Anthropic’in ABD hükümetiyle yaşadığı hukuki mücadele, eski Başkan Donald Trump döneminde şirketin AI sohbet robotu Claudeyi federal kurumların kullanımından yasaklama girişimiyle başladı. Pentagon, şirketi "ulusal güvenlik sistemlerine yabancı müdahale riski" olarak tanımladı.
OpenAI ise Mart ayında Pentagon ile yaptığı anlaşmayla, Anthropic’in yerine ChatGPT’yi gizli ortamlarda kullanmaya başladı. Şirket yaptığı açıklamada, bu anlaşmanın AI’nın askeri alanda güvenli ve kontrollü kullanımını desteklediğini belirtti.
Gelecekteki adımlar: AI’nin savaşlardaki yeri ne olacak?
Pentagon’un AI anlaşmaları, teknolojinin askeri alandaki rolünü genişletirken, etik ve güvenlik standartlarının belirlenmesi gerektiğini gösteriyor. AI’nın savaşlardaki kullanımının insan denetimiyle sınırlandırılması ve operatörlerin eğitiminin önemine dikkat çekiliyor. Ancak bu teknolojinin gelecekteki savaş stratejilerinde ne kadar etkili olacağı henüz net değil.