AI-nin kiber təhlükəsizlikdəki yeni mərhələsi: insan müdaxiləsi hələ də vacibdir

Anthropic və OpenAI tərəfindən yaradılan kiber təhlükəsizlik üçün nəzərdə tutulmuş AI modelləri, real şəraitdə sınaqdan keçirilən zaman hələ də insan mütəxəssislərin böyük yardımı olmadan effektiv fəaliyyət göstərə bilmir. Bu nəticələr, sistemləri real şəraitdə test edən istifadəçilər tərəfindən əldə edilib.

Niyə bu vacibdir?

AI-ın kiber təhlükəsizlikdəki yeni mərhələsi tam avtonom hücumlar təşkil etməkdən çox, insanların bu sistemləri necə idarə etməsi, nəticələri yoxlaması və əməliyyata keçirilməsi ilə bağlıdır. Bu, kiber təhlükəsizlik sahəsində yeni bir dövrün başlanğıcı ola bilər.

Böyük şəkildə baxış

Anthropic tərəfindən təqdim olunan Mythos Preview modeli, dünyaya təqdim edildikdə, demək olar ki, hər əməliyyat sistemində on minlərlə zəiflik tapdığını bildirmişdi. Üçüncü tərəf sınaqları göstərir ki, OpenAI-in GPT-5.5-Cyber modeli də zəiflikləri tapmaq və istifadə etməkdə Mythos qədər güclüdür. Dünyanın müxtəlif ölkələrindəki böyük şirkətlər və hökumətlər bu modellərə sahib olmaq üçün böyük maraq göstərirlər, çünki belə qabiliyyətlərin hücumçuların əlinə keçməsi an məsələsidir.

Yeni məlumatlar

Bu həftə Mythos və GPT-5.5-in erkən istifadəçilərindən bəziləri bu inqilabi modellərin sınaqlarından bəhs etdilər:

  • Palo Alto Networks Axios-a bildirdi ki, Anthropic və OpenAI modellərindən istifadə edərək 75 zəiflik tapmışdır. Bu rəqəm, adətən ayda 5-10 zəiflik tapılan şirkət üçün böyük bir artımdır. Tədqiqatçılar həmçinin modellərin aşağı səviyyəli zəiflikləri birləşdirərək işlək hücum zəncirlərinə çevirmək qabiliyyətinə malik olduğunu da qeyd etdilər.
  • Microsoft bu həftə yeni agent əsaslı təhlükəsizlik sisteminin, müxtəlif sərhəd və distilləşdirilmiş modellər əsasında fəaliyyət göstərərək, Windows şəbəkə və autentifikasiya sistemində 16 yeni zəiflik tapdığını açıqladı. Microsoft həmçinin AI alətlərinin vaxt keçdikcə tapılan zəifliklərin sayını artıracağını və müdafiəçilərin bu zəiflikləri daha sürətli şəkildə təmizləmələrinin vacibliyini vurğuladı.
  • Cisco bu həftə təşkilatlara AI modellərindən necə istifadə etmələri haqqında düşüncə vermək üçün "Foundry Security Spec" adlı açıq mənbəli sənəd buraxdı.
  • XBOW, AI əsaslı penetrasiya testi startup-u, Mythos modelini "mənbə kodunun auditində çox güclü" olaraq təsvir etdi və bu model haqqında daxili sınaqlarını açıqladı.

Reallıq nədir?

Satıcıların hamısı belə nəticəyə gəliblər ki, modellər təcrübəli təhlükəsizlik tədqiqatçıları ilə birgə fəaliyyət göstərdikdə ən yaxşı nəticələri verir. Bu mütəxəssislər nəticələri yoxlamaq, iş axınlarını idarə etmək və zəifliklərin istifadə edilə bilən növlərini şumdan ayırmaq qabiliyyətinə malikdirlər.

XBOW bildirdi ki, Mythos modeli istifadə edilən zəifliklərin təsdiqlənməsində "yaxşı, lakin az güclüdür" və modelin "çox ədəbli və konservativ" ola bildiyini, bəzən nəticələrinin praktiki əhəmiyyətini şişirdiyini qeyd etdi.

Palo Alto Networks, Mythos, Opus 4.7 və GPT-5.5-Cyber ilə işləyərkən məhsullarında təxminən 30% yalan müsbət nəticə aldığını bildirdi. Lakin şirkət modeli ətraf mühitə uyğunlaşdırdıqca bu rəqəm aşağı düşdü.

Daniel Stenberg, açıq mənbəli Curl layihəsinin baş inkişafçısı, bu həftə Mythos modelinin Curl kodunda bir aşağı səviyyəli zəiflik tapdığını, lakin bir neçə yalan müsbət nəticə ilə qarşılaşdığını və digər bir məsələni isə nəticədə önəmsiz hesab etdiyini bildirdi. Bu, hələ də böyük miqdarda insan nəzarətinin vacibliyini göstərir.

Daha dərinə nəzər

Cisco-nun yeni sənədindəki spesifikasiyalar yeni modellərin qabiliyyətləri haqqında ipuçları verir:

"Sərhəd modeli, yoxlanılmamış nəticələrin dəyərsiz olmasına səbəb olan, yanlış, lakin cəlbedici və inandırıcı zəiflik iddiaları yaradır."

Cisco tədqiqatçıları, modellərə sadəcə "daha diqqətli ol" deməkdənsə, sistemlərdən gələn iddiaların "yoxlanıla bilən" olmasını tələb etməyin daha yaxşı nəticələr verdiyini tapdılar.

Mənbə: Axios