AI als wapen in cyberaanval op Google
Google is opgeschrikt door een geavanceerde cyberaanval waarbij kunstmatige intelligentie (AI) werd gebruikt om een onbekende softwarefout te ontdekken en uit te buiten. Onderzoekers van het techbedrijf meldden maandag dat de aanval uiteindelijk werd verijdeld, maar dat de hackers gebruikmaakten van een nog nooit eerder gezien mechanisme. De details over de daders en het tijdstip van de aanval blijven onduidelijk.
In een rapport van Google Threat Intelligence Group staat: "We hebben hoge mate van vertrouwen dat de aanvallers waarschijnlijk een AI-model hebben ingezet om deze kwetsbaarheid te ontdekken en te misbruiken."
Zero-day-aanval met AI als katalysator
De hackers maakten gebruik van een zogenoemde zero-day-kwetsbaarheid: een fout in de software die de ontwikkelaars niet kenden. Dergelijke fouten zijn bijzonder gevaarlijk, omdat ze tot grote schade kunnen leiden voordat ze worden gedicht. In dit geval zou de fout hebben toegestaan om tweefactorauthenticatie (2FA) te omzeilen in een populair open-source webgebaseerd systeem voor systeembeheer. Hiervoor was wel kennis van de gebruikersnaam en het wachtwoord nodig.
Hoewel 2FA een cruciale beveiligingslaag is, zou de aanval desastreus kunnen zijn geweest als de hackers ook deze stap hadden kunnen omzeilen. Google meldt dat de aanvallers van plan waren de kwetsbaarheid grootschalig uit te buiten, maar dat de techgigant de aanval tijdig detecteerde en stopte.
"Deze aanval is een voorproefje van wat nog komen gaat," aldus John Hultquist, hoofdanalist bij Google Threat Intelligence Group. "We geloven dat dit slechts het topje van de ijsberg is. Het probleem is waarschijnlijk veel groter dan we nu kunnen zien."
Eerste AI-gestuurde zero-day-aanval ooit
Dit is de eerste keer dat een zero-day-kwetsbaarheid is ontdekt en misbruikt met behulp van AI. De onderzoekers benadrukken dat dit een nieuwe fase inzet in de cybersecurity-dreiging. De aanval volgt op de recente release van Anthropic’s Claude Mythos-model, dat volgens het bedrijf in staat is om zero-day-kwetsbaarheden te vinden in alle grote besturingssystemen en webbrowsers. Anthropic deelde het model alleen met een selecte groep bedrijven en overheidsinstanties, uit angst voor misbruik.
AI als dubbelzijdig zwaard
De dreiging van AI in cyberaanvallen ligt in de steeds betere capaciteit om code te schrijven en te analyseren. Bedrijven in de tech- en financiële sector omarmen deze technologie in rap tempo. Onderzoekers van Google ontdekten dat de malware van de hackers kenmerken vertoonde die typisch zijn voor door AI gegenereerde code, zoals overvloedige docstrings (code-uitleg), hallucinaties in de tekst en een gestructureerde, textbookachtige Python-formaat die sterk lijkt op trainingsdata van grote taalmodellen (LLM’s).
Deze ontwikkeling roept vragen op over de balans tussen innovatie en veiligheid. Terwijl AI bedrijven helpt efficiënter te werken, vergroot het ook de risico’s op nieuwe vormen van cybercriminaliteit. Experts waarschuwen dat de dreiging alleen maar zal toenemen naarmate AI-modellen krachtiger en toegankelijker worden.