Yapay zeka alanındaki en umut verici gelişmelerden biri, bazı yapay zeka şirketlerinin bu teknolojinin potansiyel tehlikelerine karşı önlem almaya başlamasıdır. Bu adımlar, Skynet ya da HAL 9000 senaryolarından çok daha gerçekçi risklere odaklanıyor. Şirketler artık altyapı güvenliği, gizlilik ve kamusal-özel sınırların bulanıklaşması gibi ciddi endişeleri gündeme getiriyor.

Yıllarca teknoloji devi şirketler, gaz pedalına basarken frenlere pek dokunmadı ve hepimiz bu hızın nimetlerinden faydalandık. Ancak yapay zeka konusunda bazı şirketler alışılmadık bir adım attı: 'Hayır' demeye başladı.

Anthropic adlı şirket, Claude Mythos Preview adlı yeni modelini geniş kitlelere sunmaktan vazgeçti. Şirket, bu modelin binlerce yüksek riskli güvenlik açığı bulabildiğini ve bu açığın tüm büyük işletim sistemleri ile web tarayıcılarında mevcut olduğunu iddia ediyor. Bunun yerine, modeli sadece Amazon Web Services, Apple, Google, Microsoft ve NVIDIA gibi kritik altyapı yazılımlarını geliştiren veya sürdüren bir konsorsiyuma sunmayı tercih etti.

Anthropic’in Project Glasswing adıyla başlattığı bu girişim, savunma odaklı bir proje olarak tanımlanıyor. Şirket, modelin kötü niyetli aktörlerin eline geçmeden önce felaket boyutundaki güvenlik açıklarını tespit edip kapatmayı hedefliyor. Bu kararın elbette şirket çıkarlarıyla da bağlantısı var. Rakiplerinin kopyalama sürecini yavaşlatarak, itibarlarını korumayı amaçlıyorlar. Ancak yıllarca her yeni yeteneğin hemen piyasaya sürülmesi gerektiğini savunan bir sektörde, güçlü bir modelin doğrudan halka açılmaması gerektiğine karar vermek gerçekten dikkat çekici.

Pentagon ile Yaşanan Gerilim

Anthropic’in bu duruşu, Pentagon ile yaşadığı tartışmada daha da net bir şekilde ortaya çıktı. Şirket, yapay zeka modellerinin askeri kullanımı için sadece iki istisnai durum olduğunu açıkladı: kitlesel iç gözetim ve tamamen otonom silahlar.

CEO Dario Amodei, yapay zekanın ticari olarak ulaşılabilir verileri kullanarak herhangi bir kişinin hayatını otomatik ve kitlesel ölçekte ortaya çıkarabileceğini belirtti. Otonom silahlar konusunda ise günümüzdeki ileri sistemlerin insan müdahalesi olmadan hedef seçip saldırı yapmaya yeterince güvenilir olmadığını vurguladı.

Anthropic’in diğer büyük teknoloji şirketleri gibi hükümete yardımcı olmayı reddettiği anlamına gelmiyor bu durum. Ancak şirketin, ürünlerinin kullanımına bazı sınırlamalar getirme isteği dikkat çekiciydi. Pentagon ise bu talebe sert bir yanıt verdi. Savunma Bakanlığı, yapay zeka şirketlerinin 'her yasal kullanımı kabul etmesini ve bu sınırlamaları kaldırmasını' şart koştu. Anthropic’in reddetmesi üzerine Savunma Bakanı Pete Hegseth, şirketi ulusal güvenlik riski olarak tanımladı ve bu karar şirketin projelerini riske attı.

Kaynak: Reason