AI som verktøy – ikke erstatning for eksperter

Nye AI-modeller fra selskapene Anthropic og OpenAI viser imponerende evner til å identifisere sårbarheter i programvare og systemer. Likevel krever de fortsatt betydelig menneskelig ekspertise for å fungere effektivt i reelle cybersikkerhetsmiljøer. Dette fremgår av erfaringer fra tidlige brukere som har testet modellene i praksis.

Hvorfor dette er viktig

Den nye generasjonen av AI-drevet cybersikkerhet avhenger mindre av fullstendig autonom hacking, og mer av hvor effektivt mennesker kan styre, validere og operasjonalisere stadig kraftigere systemer. Dette stiller nye krav til kompetanse og arbeidsmetoder innenfor cybersikkerhet.

Modellene som skaper oppsikt

Da Anthropic lanserte Mythos Preview, advarte selskapet om modellens enorme kapasitet. Den klarte å identifisere titusenvis av sårbarheter på tvers av nesten alle operativsystemer. Tredjepartstester viser at OpenAIs GPT-5.5-Cyber er like effektiv når det gjelder å finne sårbarheter og skrive exploits.

Store bedrifter og myndigheter over hele verden har vært ivrige etter å få tilgang til disse modellene. Hensikten er å forstå hvilke utfordringer de vil stå overfor når lignende kapasiteter havner i hendene på angripere.

Erfaringer fra tidlige brukere

Flere tidlige brukere av Mythos og GPT-5.5 har denne uken delt sine erfaringer etter å ha testet modellene. Palo Alto Networks rapporterer at de fant 75 sårbarheter ved hjelp av begge modellene, sammenlignet med de vanligvis 5-10 de oppdager hver måned. Forskerne oppdaget også at modellene ble stadig bedre til å koble sammen tilsynelatende mindre alvorlige sårbarheter til fungerende angrepskjeder.

Microsoft kunngjorde tirsdag at deres nye agentbaserte sikkerhetssystem, som bygger på flere avanserte modeller, avdekket 16 nye sårbarheter i Windows nettverks- og autentiseringsstack. Samtidig varsler Microsoft om at AI-verktøy sannsynligvis vil øke det totale antallet oppdagede sårbarheter over tid. Dette legger ytterligere press på forsvarere som må prioritere og patchere svakheter raskere.

Cisco lanserte denne uken Foundry Security Spec, en åpen kildekode-rammeverk for hvordan organisasjoner bør tenke på bruk av avanserte AI-modeller. XBOW, en AI-drevet penetrasjonstestingsstartup, beskriver Mythos som «ekstremt kraftig for kildekode-revisjoner» i en bloggpost tirsdag der de deler interne tester.

Menneskene avgjørende for nøyaktighet

Leverandørene er enige om at modellene presterer best når de brukes sammen med erfarne sikkerhetsforskere. Disse ekspertene kan validere funn, veilede arbeidsflyten og skille mellom reelle sårbarheter og støy.

XBOW fant at Mythos var «god, men mindre effektiv» når det gjaldt å validere exploits, og at modellen noen ganger kunne være «for bokstavelig og konservativ». Den overvurderte av og til den praktiske betydningen av funnene.

Palo Alto Networks, som har jobbet med Mythos, Opus 4.7 og GPT-5.5-Cyber, registrerte en falsk positiv-rate på om lag 30% på tvers av produktene. Denne raten sank imidlertid etter hvert som selskapet trente modellen på miljøet den skulle undersøke.

Daniel Stenberg, hovedutvikleren bak det åpne kildekode-prosjektet Curl, uttalte mandag at Mythos fant én lav-alvorlighetsgrad sårbarhet i koden, samt flere falske positiver og et annet problem Curl til slutt vurderte som ubetydelig. Dette understreker behovet for fortsatt menneskelig gjennomgang.

Ciscos anbefalinger for AI-bruk

I spesifikasjonsdokumentene for Ciscos nye rammeverk finnes det viktige ledetråder om modellenees kapasiteter. «En avansert modell produserer flytende, selvsikre og plausible sårbarhetsvarsler som er feil i en grad som gjør ubehandlet output verdiløs,» skriver Cisco i sitt dokument. I stedet for å instruere modellene til å være mer forsiktige, fant forskerne bedre resultater når de ba systemene om å gjøre påstandene «kontrollerbare».

Kilde: Axios