Yapay zeka destekli siber güvenlik alanında yeni bir dönemin eşiğindeyiz. Ancak son araştırmalar, Anthropic ve OpenAI tarafından geliştirilen ileri düzey siber yeteneklere sahip yapay zeka modellerinin bile insan uzmanlığının desteği olmadan tam olarak verimli çalışamadığını ortaya koyuyor.
İnsan Rehberliği Olmadan Yetersiz Kalıyor
Gerçek dünya ortamlarında test edilen bu modeller, siber tehditleri tespit etme ve saldırı zincirleri oluşturma konusunda oldukça başarılı görünse de, insan müdahalesi olmadan sonuçların doğruluğu ve uygulanabilirliği ciddi şekilde sorgulanıyor. Bu durum, siber güvenlikte tamamen otonom sistemlere geçişin ne kadar zor olduğunu gösteriyor.
Modellerin Gücü ve Sınırları
Anthropic’in Mythos Preview modeli, piyasaya sürüldüğünde neredeyse tüm işletim sistemlerinde on binlerce hatayı tespit edebilecek kadar güçlü olduğunu iddia etmişti. Üçüncü taraf testler ise OpenAI’nin GPT-5.5-Cyber modelinin de benzer yeteneklere sahip olduğunu doğruladı. Bu gelişmeler, hem büyük şirketlerin hem de hükümetlerin bu modelleri edinmek için yarışmasına neden oldu.
Erken kullanıcılarından gelen geri bildirimler de modellerin potansiyelini ortaya koydu:
- Palo Alto Networks: Hem Anthropic hem de OpenAI modellerini kullanarak normalde ayda sadece 5-10 hata bulurken, bu modellerle 75 hata tespit etti.
- Microsoft: Yeni ajanik güvenlik sistemiyle Windows ağ ve kimlik doğrulama yığınında 16 yeni güvenlik açığı bulduğunu açıkladı. Şirket, yapay zeka araçlarının zamanla daha fazla güvenlik açığı tespit edeceğini ve savunmacıların bu açıkları hızlıca düzeltmesi gerektiğini belirtti.
- Cisco: Bu hafta Foundry Security Spec adıyla, organizasyonların ileri düzey yapay zeka modellerini nasıl kullanması gerektiğine dair açık kaynaklı bir kılavuz yayınladı.
- XBOW: AI destekli penetrasyon testi startup’ı, Mythos’un kaynak kodu denetimlerinde “son derece güçlü” olduğunu açıkladı.
İnsan Müdahalesinin Önemi
Tüm bu başarı hikayelerinin yanı sıra, modellerin insan uzmanlar tarafından yönlendirilmesi gerektiği de ortaya çıktı. XBOW’un yaptığı testlerde, Mythos’un “bulduğu açıkları doğrulamada yetersiz kaldığı” ve bazen “aşırı titiz veya konservatif” davranarak pratikte önemli olmayan sorunları abarttığı görüldü.
Palo Alto Networks’in deneyimleri de benzer sonuçları destekledi: Modellerin %30’a varan yanlış pozitif oranı bulunurken, bu oran modelin çalıştığı ortama özel olarak eğitilmesiyle düştü.
Curl projesinin baş geliştiricisi Daniel Stenberg, Mythos’un projesinde önemsiz bir hatayı tespit ederken, birçok yanlış pozitif ve önemsiz başka bir sorun bulduğunu belirtti. Bu durum, modellerin çıktılarının ne kadar dikkatli bir şekilde incelenmesi gerektiğini gösteriyor.
Cisco’nun Yaklaşımı: Kontrol Edilebilir Çıktılar
“Sınır modeli, akıcı, güvenilir ve makul görünümlü güvenlik açığı iddiaları üretir, ancak bu iddiaların yaklaşık %50’si yanlıştır. İncelenmemiş çıktılar kullanılamaz hale gelir.”
Cisco, modellerin çıktılarını daha kontrollü hale getirmek için “doğrulanabilir iddialar üretmeleri” gerektiğini öneriyor. Bu yaklaşım, sistemlerin daha güvenilir sonuçlar üretmesine yardımcı olabilir.
Gelecekteki Senaryolar
Yapay zeka destekli siber güvenlik sistemleri, savunmacılar için büyük bir avantaj sağlasa da, bu sistemlerin yanlış pozitif oranları ve insan müdahalesine olan ihtiyaçları, tamamen otonom bir geleceğin henüz mümkün olmadığını gösteriyor. Uzmanlar, gelecekte de insan-makine işbirliğinin kritik önemini koruyacağını vurguluyor.
Bu gelişmeler ışığında, organizasyonların yapay zeka araçlarını kullanırken hem insan uzmanlığına hem de sürekli eğitime yatırım yapması gerekiyor. Aksi takdirde, siber tehditlere karşı savunmasız kalma riski artabilir.