Yapay zekânın federal BT sistemlerine ve saldırganların araç setlerine daha fazla entegre olmasıyla birlikte, devlet kurumlarının ağ erişimini düzenleyen ve izleyen kimliklere odaklanması gerekiyor. Beyaz Saray’dan üst düzey bir siber güvenlik yetkilisi, AI destekli tehditlere karşı en etkili savunmanın kimlik yönetimi olduğunu vurguladı.
AI’nin Siber Tehditlerdeki Yeni Rolü
Nick Polk, Başkanlık Yürütme Ofisi’nde federal siber güvenlikten sorumlu şube direktörü, AI modellerinin federal ağlara yönelik benzersiz tehditler oluşturabileceğini ancak bu tehditlerin genellikle güvenilir erişim gerektirdiğini belirtti. Polk, bu durumun savunmacılar için bir avantaj olduğunu ifade etti.
"Önemli olan nokta şu ki, AI’nın bulduğu zafiyetleri kullanmak ya da kötü niyetli şekilde kullanmak için ilk adım ağa girmek zorundasınız. İnternete açık yazılımlar gibi bazı durumlarda çözüm daha basit olabilir, ancak çoğu zaman ağa erişim sağlamak gerekiyor."
Polk’un açıklamalarına göre, bu erişim genellikle bir çalışanın, yüklenici ya da üçüncü taraf satıcının sistemlere ve verilere erişimini kötüye kullanarak sağlanıyor. AI çağına rağmen, ağ güvenlik sınırları önemini koruyor ve kurumlara kimlerin sistemlere erişeceğini ve nasıl hareket edeceğini kontrol etme olanağı sunuyor.
Kimlik Yönetimi: AI Çağında Kritik Savunma Aracı
Polk, güçlü kimlik yönetiminin, saldırıların gerçekleşmeden engellenmesi ya da anormal davranışların hızla tespit edilmesi için hayati önem taşıdığını vurguladı:
"Güçlü kimlik yönetimi, bir saldırı girişimini engellemek ya da ağa girmiş olan bir kişi ya da makinenin yetkisiz olduğunu hızla belirlemek için kritik önem taşıyor.""
AI’nın Saldırganlara Sağladığı Avantajlar
Ulaştırma Bakanlığı Siber Koruma Direktörü Justin Ubert, AI araçlarının siber suçlulara hız ve ölçek avantajının yanı sıra, gizlilik ihtiyacını ortadan kaldıran yeni fırsatlar sunduğunu belirtti:
"Artık ağa sessizce sızmak yerine, hızlıca girip verileri çalabilirsiniz. Saldırı tespit sistemleriniz çalışmaya başlamadan önce saldırgan çoktan gitmiş olabilir."
AI araçları ayrıca iç tehditlere de dönüşebiliyor. Kullanıcıların hassas eylemleri kısıtlaması durumunda bile, AI modelleri teknik açıkları kullanarak bu korumaları aşabiliyor. Geçtiğimiz ay California Üniversitesi-Riverside tarafından yapılan araştırma, otomatik AI ajanlarının zararlı eylemleri fark etmeden görevlerine odaklanabildiğini ortaya koydu. Çalışma, Anthropic’in Claude Sonnet ve Opus 4 ile OpenAI’nin ChatGPT-5 modellerini inceledi ve ajanların bağlamsal muhakeme konusunda zorluk yaşadığını, eyleme geçme eğiliminde olduklarını ve sıklıkla mantıksız kararlar aldığını gösterdi.
AI’nın Siber Güvenlikteki Yeni Tehditleri
- Hızlı saldırılar: AI destekli saldırılar, savunma sistemleri tepki veremeden tamamlanabiliyor.
- İç tehditler: AI ajanları, koruma mekanizmalarını aşarak hassas verilere erişebiliyor.
- Bağlam eksikliği: AI modelleri, eylemlerinin sonuçlarını değerlendirmede zorlanıyor.
Federal Kurumlar için Öneriler
Uzmanlar, devlet kurumlarının AI çağına uyum sağlamak için aşağıdaki adımları atması gerektiğini belirtiyor:
- Kimlik yönetimini güçlendirmek: Çok faktörlü kimlik doğrulama ve sürekli izleme sistemleri uygulamak.
- Eğitim ve farkındalık: Çalışanları ve yüklenicileri siber tehditler konusunda bilinçlendirmek.
- Sürekli izleme: Ağ trafiğini ve kullanıcı davranışlarını gerçek zamanlı olarak analiz etmek.
- AI savunma araçları: AI destekli siber savunma sistemleri kullanarak tehditleri öngörmek ve engellemek.