Anthropic-in yeni AI modeli: Kiber təhlükəsizlikdə inqilab

Anthropic şirkəti tərəfindən təqdim edilən Claude Mythos Preview adlı AI modeli, proqram təminatındakı zəiflikləri avtomatik şəkildə taparaq istifadəçi yardımı olmadan hücum vasitələrinə çevirə bilir. Bu yenilik, əməliyyat sistemləri və internet infrastrukturu kimi əsas proqram təminatlarında minlərlə inkişafçının tapmadığı zəiflikləri müəyyən edə bilir.

Modelin ictimaiyyətə təqdim edilməməsi

Bu qabiliyyət kiber təhlükəsizlik sahəsində böyük dəyişikliklərə səbəb ola bilər, çünki bu cür zəifliklər istifadəçilərin istifadə etdiyi cihazlar və xidmətlər üçün təhlükə yarada bilər. Anthropic isə modeli ümumi istifadəçilərə deyil, məhdud sayda şirkətlərə təqdim etmək qərarına gəlib.

Reaksiyalar və spekulyasiyalar

Bu xəbər kiber təhlükəsizlik sahəsində böyük reaksiyalar doğurdu. Anthropic-in elanı çox az detallı əhatə etdiyindən, bir çox müşahidəçilər narazılıqlarını bildirdilər. Bəziləri Anthropic-in GPU-larının modeli işlətmək üçün yetərli olmadığını, digərləri isə şirkətin AI təhlükəsizliyi missiyasına sadiq qalmaq istədiyini iddia etdilər. Həyəcan və qarşı çıxışlar, həqiqət və marketinq qarışığı bu məsələnin həllini çətinləşdirir.

Mythos-u real, lakin tədricən inkişaf edən bir addım olaraq dəyərləndiririk. Lakin belə tədricən dəyişikliklər böyük şəkildə baxdıqda çox vacib ola bilər.

AI-nin kiber təhlükəsizliyə təsiri

Biz əvvəllər Shifting Baseline Syndrome fenomeni haqqında yazmışdıq. Bu fenomen, ictimaiyyət və ekspertlərin uzunmüddətli dəyişiklikləri tədricən gələn addımlarda görməməsinə səbəb olur. Bu, onlayn şəxsi həyatın mühafizəsi ilə bağlı da baş vermişdi və indi AI ilə bağlı da müşahidə olunur.

Mythos tərəfindən tapılan zəifliklər keçən ay və ya keçən ilki AI modelləri tərəfindən də tapıla bilərdi, lakin beş il əvvəlki modellər tərəfindən tapılması mümkün deyildi. Mythos elanı, AI-nin necə sürətlə inkişaf etdiyini xatırladır: əsas xətt artıq dəyişib. Mənbə kodunda zəifliklərin tapılması, bu günkü böyük dil modellərinin üstün olduğu bir tapşırıqlardır.

Bu qabiliyyətin gələcəkdə də inkişaf edəcəyini gözləmək mümkündür. Əsas sual isə bu dəyişikliklərə necə uyğunlaşacağımızdır.

Hücum və müdafiə arasında tarazlıq

Avtonom şəkildə hack edə bilən AI-nin hücum və müdafiə arasında daimi qeyri-bərabərlik yaratacağına inanmırıq. Bu məsələ daha mürəkkəb olacaq:

  • Avtomatik olaraq tapıla, yoxlana və düzəldilə bilən zəifliklər: Bəzi zəifliklər avtomatik olaraq müəyyən edilə və düzəldilə bilər.
  • Tapılması çətin, lakin yoxlanması və düzəldilməsi asan zəifliklər: Standart proqram təminatı əsaslı bulud xidmətlərində yeniləmələr tez-tez həyata keçirildiyindən, belə zəifliklər asanlıqla düzəldilə bilər.
  • Tapılması asan, lakin düzəldilməsi çətin və ya mümkün olmayan zəifliklər: IoT cihazları və sənaye avadanlıqları kimi nadir hallarda yenilənən və ya dəyişdirilməsi çətin olan sistemlərdə belə zəifliklər mövcud ola bilər.
  • Kodda asanlıqla tapıla, lakin praktikada yoxlanması çətin olan zəifliklər: Mürəkkəb paylanmış sistemlərdə minlərlə paralel xidmət fəaliyyət göstərdiyindən, həqiqi zəiflikləri saxtakarlardan ayırmaq və onları etibarlı şəkildə təkrar etmək çətin ola bilər.

Beləliklə, düzəldilə bilən və düzəldilə bilməyən, həmçinin yoxlanması asan və çətin olan zəiflikləri ayırmaq lazımdır. Bu taksonomiya həm müdafiə strategiyalarının inkişafında, həm də risklərin idarə edilməsində vacib rol oynayacaq.