AI-utvecklad attack identifierade okänd säkerhetsbrist
Google har avslöjat en sofistikerad cyberattack som använde artificiell intelligens för att upptäcka en tidigare okänd säkerhetsbrist i företagets mjukvara. Enligt en rapport från Googles forskare, som publicerades på måndagen, var attacken riktad mot ett populärt administrationsverktyg för webbaserade system. Den stoppades innan den kunde utnyttjas, men visar på de nya hot som AI-teknik medför för cybersäkerheten.
Zero-day-sårbarhet – en mardröm för säkerhetsexperter
Attacken utnyttjade en så kallad zero-day-sårbarhet, en okänd säkerhetsbrist i mjukvaran som utvecklarna inte kände till. Sådana sårbarheter är särskilt farliga eftersom de ger hackare möjlighet att angripa system innan en patch eller lösning finns tillgänglig. I det här fallet hade hackarna kunnat kringgå tvåfaktorsautentisering – den sista försvarslinjen för många användare – om de hade tillgång till användarnamn och lösenord.
Enligt rapporten planerade angriparna att utnyttja sårbarheten i en storskalig attack, men Googles proaktiva upptäckt stoppade försöket. Detta är första gången en AI-utvecklad zero-day-sårbarhet har utnyttjats i en verklig attack.
"Vi har stark tilltro till att aktören sannolikt använde en AI-modell för att upptäcka och utnyttja denna sårbarhet."
AI:s dubbla roll i cyberhotens utveckling
Upptäckten väcker oro kring AI:s roll i framtidens cyberhot. AI:s förmåga att analysera och generera kod snabbt och effektivt gör det till ett kraftfullt verktyg – både för säkerhetsforskare och för angripare. Googles forskare fann att skadeprogrammet i attacken innehöll karakteristiska drag från AI-genererad kod, såsom omfattande dokumentation, hallucinerad text och en strukturerad Python-format som påminner om träningdata för stora språkmodeller (LLM).
Denna utveckling kommer i kölvattnet av Anthropics nyliga lansering av Claude Mythos, en AI-modell som påstås kunna identifiera zero-day-sårbarheter i alla större operativsystem och webbläsare. Företaget har dock valt att endast dela modellen med ett begränsat antal företag och myndigheter på grund av dess potentiella skadliga användning.
Experter varnar för ökade AI-drivna hot
John Hultquist, chef för Google Threat Intelligence Group, varnar för att detta bara är början. "Detta är bara toppen av isberget. Problemet är sannolikt mycket större än vi kan se idag." Han menar att AI kommer att spela en allt större roll i utvecklingen av cyberhot, vilket ställer nya krav på säkerhetsföretag och myndigheter.
AI:s snabba utveckling inom kodgenerering och analys innebär att både företag och kriminella kan dra nytta av tekniken. Medan AI kan hjälpa till att snabbt identifiera och åtgärda säkerhetsbrister, kan den också användas för att skapa mer sofistikerade och svårupptäckta attacker. Denna dubbla natur gör AI till både ett hot och en möjlighet för framtidens cybersäkerhet.
Vad innebär detta för framtidens cybersäkerhet?
Googles rapport belyser behovet av att stärka säkerhetsåtgärderna mot AI-drivna hot. Företag och myndigheter måste anpassa sig till den nya verkligheten där AI inte bara är ett verktyg för innovation, utan också ett potentiellt vapen i händerna på illasinnade aktörer. För att möta dessa utmaningar krävs ökad forskning, samarbete och utveckling av nya säkerhetslösningar.