AI, der hacker automatisk – en gamechanger for cyberkriminalitet?

For to uger siden meddelte AI-virksomheden Anthropic lanceringen af Claude Mythos Preview, en ny AI-model, der kan identificere og udnytte softwarefejl uden menneskelig indblanding. Modellen kan finde sårbarheder i kritisk software som styresystemer og internetinfrastruktur – fejl, som tusindvis af udviklere tidligere har overset.

Denne teknologi har potentiale til at revolutionere cyberkriminalitet, da den kan omdanne harmløse fejl til funktionelle hacker-værktøjer. Af denne grund begrænser Anthropic adgangen til et udvalgt antal virksomheder i stedet for at gøre det offentligt tilgængeligt.

Hvorfor holder Anthropic modellen tilbage?

Nyheden har skabt stor opmærksomhed – og delte meninger – i cybersikkerhedsbranchen. Nogle kritiserer Anthropic for at mangle de nødvendige GPU’er til at køre modellen og hævder, at begrænsningen af adgangen blot er en undskyldning. Andre mener, at virksomheden lever op til sit ansvar for AI-sikkerhed.

Uanset årsagen rejser Mythos spørgsmål om, hvordan AI forandrer spillets regler inden for cybersikkerhed. Selvom modellen ikke er en pludselig revolution, markerer den en afgørende udvikling i, hvad AI kan gøre.

AI’s stigende rolle i cybersikkerhed

Vi har tidligere skrevet om Shifting Baseline Syndrome, hvor både eksperter og offentligheden gradvist vænner sig til store forandringer, der sker gennem små, inkrementelle skridt. Dette gælder også for AI’s indtog i cybersikkerhed. Selvom Mythos’ evner minder om tidligere AI-modeller, repræsenterer den et gennembrud i effektivitet og autonomi.

For blot fem år siden var det umuligt for AI at identificere sårbarheder i kildekode på denne måde. I dag er det en realitet, og det er kun et spørgsmål om tid, før lignende teknologier bliver almindelige. Udfordringen ligger nu i, hvordan samfundet tilpasser sig denne nye virkelighed.

Hvordan påvirker Mythos offensiv og defensiv cybersikkerhed?

Vi tror ikke, at en autonom hackende AI vil skabe en permanent ubalance mellem angribere og forsvarere. I stedet vil effekten variere afhængigt af typen af sårbarhed:

  • Automatisk fund og rettelse: Nogle fejl kan identificeres, verificeres og rettes automatisk.
  • Nem at rette, svær at finde: Standardiseret software i skybaserede applikationer kan opdateres hurtigt, selvom sårbarheden først opdages sent.
  • Nem at finde, svær at rette: IoT-enheder og industrielt udstyr, der sjældent opdateres, vil fortsat være sårbare.
  • Svær at verificere: Komplekse systemer med tusindvis af interagerende tjenester kan gøre det svært at skelne reelle trusler fra falske positiver.

For at håndtere disse udfordringer må vi skelne mellem:

  • Sårbarheder, der kan rettes, og dem, der ikke kan.
  • Fejl, der er lette at verificere, og dem, der er svære.

Denne differentiering er afgørende for at udvikle effektive strategier mod AI-drevne trusler.

Hvad betyder dette for fremtiden?

Mythos er blot ét eksempel på, hvordan AI forandrer cybersikkerhedslandskabet. Mens nogle frygter en bølge af AI-drevne angreb, peger andre på nye muligheder for automatiseret forsvar.

"AI’s evne til at identificere sårbarheder er en dobbeltsidig sværd. Det kan både styrke forsvar og give angribere nye værktøjer. Nøglen ligger i at udvikle teknologier og politikker, der kan holde trit med udviklingen."

Uanset hvad er Mythos en påmindelse om, at vi lever i en tid med hurtige teknologiske forandringer. Spørgsmålet er ikke længere, om AI vil ændre cybersikkerhed, men hvordan vi bedst forbereder os på det.