AI-drevet angrep avslører ukjent svakhet i Googles systemer

Google har varslet om et avansert cyberangrep der angripere benyttet seg av kunstig intelligens (AI) til å oppdage og utnytte en ukjent svakhet i programvaren. Ifølge en rapport fra Googles egne forskere ble angrepet stoppet før det kunne forårsake alvorlige skader. Rapporten ble offentliggjort mandag, men det er fortsatt uklart hvem som stod bak angrepet eller når det fant sted.

AI identifiserte null-dagsfeil

I rapporten slår Google fast at angriperne sannsynligvis brukte en AI-modell til å oppdage og utnytte en såkalt null-dagsfeil – en ukjent svakhet i programvare som utviklere ikke kjenner til. Når slike feil blir utnyttet, har angriperne et forsprang siden utviklere først må finne en løsning etter at skaden er skjedd.

Angrepet var rettet mot et populært, åpent kildekode-verktøy for systemadministrasjon på nettet. Ved å utnytte svakheten kunne angriperne omgå tofaktorautentisering, men kun dersom de allerede hadde tilgang til brukernavn og passord. Selv om dette krevde ytterligere informasjon, ville evnen til å omgå tofaktorautentisering kunne fått katastrofale følger for mange brukere.

«Den kriminelle aktøren planla å bruke svakheten i en storstilt utnyttelseskampanje, men vår proaktive oppdagelse kan ha forhindret det,» står det i rapporten.

Første dokumenterte tilfelle av AI-drevet null-dagsangrep

Dette er første gang forskere har dokumentert at hackere har brukt AI til å finne og utnytte en null-dagsfeil. Eksperter frykter at dette bare er begynnelsen på en ny type trusler.

«Dette er bare starten. Vi tror dette er toppen av isfjellet. Problemet er sannsynligvis mye større,» uttalte John Hultquist, sjefsanalytiker i Googles trusselintelligensgruppe, til New York Times.

AI og cybertrusler: En voksende bekymring

Angrepet kommer på et tidspunkt der bekymringen rundt AI og cybertrusler vokser. Nylig lanserte selskapet Anthropic en ny AI-modell, Claude Mythos, som hevder å kunne oppdage null-dagsfeil «i alle større operativsystemer og nettlesere» når den blir bedt om det. Selskapet har imidlertid begrenset tilgangen til modellen til et utvalg selskaper og myndigheter på grunn av den potensielle faren.

Googles forskere fant også bevis på at angripernes skadevare inneholdt kode med karakteristiske trekk fra AI-generert kode, blant annet omfattende kommentarer (docstrings), «hallusinasjoner» i teksten og en struktur som ligner på opplæringsdata fra store språkmodeller (LLM).

Hva betyr dette for fremtidens cybersikkerhet?

AI har lenge vært kjent for sin evne til å generere og analysere kode, noe som har ført til økt bekymring blant sikkerhetseksperter. Siden AI-modeller blir stadig bedre til å skrive og forstå kode, øker risikoen for at de kan bli brukt til å finne og utnytte svakheter i programvare på en mer effektiv måte enn mennesker.

Eksperter advarer om at dette kan føre til en ny æra med mer sofistikerte og vanskelige angrep. Samtidig påpeker de at AI også kan spille en avgjørende rolle i å oppdage og forhindre slike trusler i fremtiden.

«Vi står overfor en dobbeltsidig sverd,» sier Hultquist. «AI kan både være et våpen for angripere og et forsvarsverktøy for forsvarere.»

Kilde: Futurism