I august i fjor samlet noen av verdens ledende cybersecurity-team seg i Las Vegas for å delta i DARPA’s Artificial Intelligence Cyber Challenge (AIxCC). Målet var å demonstrere styrken til AI-baserte verktøy for å oppdage programvarefeil. DARPA hadde lagt inn kunstige svakheter i 54 millioner linjer ekte programkode, men verktøyene gjorde mer enn forventet.

I tillegg til å identifisere de fleste av de kunstige svakhetene, avdekket AI-systemene over et dusin ekte sikkerhetshull som ikke var blitt introdusert av arrangørene. Dette viser at kunstig intelligens ikke bare kan etterligne menneskelig ekspertise, men også oppdage ukjente problemer i kodebaser.

Funnet kommer på et tidspunkt der nye AI-modeller, som Anthropics Claude Mythos, har vist seg spesielt effektive til å finne sårbarheter. Eksperter mener dette kan bli et gjennombrudd for hvordan bedrifter og myndigheter håndterer cybersikkerhet.

– Dette er en påminnelse om at AI ikke bare kan automatisere eksisterende prosesser, men også avsløre svakheter vi ikke visste eksisterte, sier en anonym sikkerhetsekspert til The Verge.

Hva betyr dette for fremtidens cybersikkerhet?

Eksperter peker på flere viktige konsekvenser av utviklingen:

  • Raskere identifisering av sårbarheter: Tradisjonelle metoder for å finne svakheter i programvare er tidkrevende og krever mye manuelt arbeid. AI-verktøy kan skanne store kodebaser på kort tid og oppdage problemer som mennesker lett overser.
  • Reduserte kostnader: Ved å automatisere en stor del av arbeidet med sikkerhetstesting, kan bedrifter spare betydelige ressurser som ellers ville blitt brukt på manuelle undersøkelser.
  • Økt kompleksitet: Samtidig som AI gir nye muligheter, introduserer det også nye utfordringer. Angripere kan potensielt bruke lignende teknologi til å finne og utnytte svakheter raskere enn noen gang før.

Kan AI erstatte menneskelige eksperter?

Selv om AI viser stort potensial, er det fortsatt usikkert om det kan erstatte menneskelige sikkerhetseksperter fullstendig. Mange mener at den beste tilnærmingen er en kombinasjon av AI og menneskelig ekspertise.

«AI kan hjelpe oss med å finne svakheter, men det krever menneskelig dømmekraft for å avgjøre hvilke funn som er reelt farlige og hvilke som kan ignoreres,» sier en representant fra et ledende cybersikkerhetsselskap.

Eksperter understreker også viktigheten av å utvikle robuste etiske retningslinjer for bruk av AI i cybersikkerhet. Ukontrollert bruk av slike verktøy kan føre til misbruk, for eksempel ved at angripere bruker AI til å identifisere og utnytte svakheter i kritisk infrastruktur.