Anthropic har for nylig meddelt, at selskabet ikke vil frigive sin mest avancerede AI-model, Mythos, til offentligheden. Årsagen er simpel: Modellen har identificeret tusindvis af ukendte softwarefejl – sårbarheder, der har eksisteret i årtier i store styresystemer og webbrowsere uden at blive opdaget.

Anthropic begrunder beslutningen med, at Mythos er for farlig til bred anvendelse. De samme evner, der gør modellen i stand til at finde og rette sikkerhedsfejl, kan nemlig også udnyttes af angribere. En enkelt AI-agent kan ifølge selskabet scanne efter svagheder hurtigere og mere vedholdende end hundredvis af menneskelige hackere tilsammen.

AI-agenter ændrer spillereglerne for digital sikkerhed

Denne beslutning afslører en afgørende udfordring i den nuværende udvikling af AI: De samme systemer, som virksomheder hastigt integrerer som autonome assistenter – til at planlægge møder, skrive kode og styre arbejdsgange – kan samtidig undersøge digitale forsvarsværker med en hastighed og skala, som ingen menneskelig gruppe kan matche.

De fleste af disse systemer opererer stadig inden for en sikkerhedsmodel, der blev designet til en tid, hvor der sad et menneske bag hvert tastatur. Forestil dig en bygning, hvor alle døre har låse, men låsene er udviklet til at genkende menneskehænder. Nu er bygningen fyldt med robotter – nogle autoriserede budbringere, andre indtrængende – og låsene kan ikke skelne mellem dem.

Identitet i en verden uden mennesker

For blot få år siden kunne du sætte dig ved dit skrivebord, kaste et blik på post-it-sedlen med dit brugernavn og adgangskode, taste dem ind og derefter hente en kop kaffe, mens din browser åbnede en portal til resten af verden. Hvert lag af sikkerhed, der kom derefter – adgangskoder, sikkerhedsspørgsmål, biometriske scanninger, tofaktorautentifikation – bygger på en enkelt grundantagelse: Der var et menneske på den anden side.

AI-agenter bryder denne antagelse fra to sider på én gang. På den ene side har legitime agenter brug for legitimationsoplysninger for at agere som mennesker. Eksempler inkluderer OpenAIs Operator, der navigerer på hjemmesider på dine vegne, Googles Gemini, der kan planlægge din næste familieferie, mens du sover, og Visas Intelligence Commerce Connect, som lader AI-agenter foretage indkøb for forbrugere. Disse er ikke længere eksperimenter eller visionære idéer fra tech-konferencer – de er produkter, der allerede agerer på vegne af rigtige mennesker, og for at gøre det, har de brug for din identitet.

Samtidig kan modstandere efterligne menneskelig adfærd i stor skala. Den samme AI, der kan agere som en hjælpsom assistent, kan også blive en ondsindet bedrager. De bryder ikke ind – de logger ind. Gennem delte legitimationsoplysninger, ansættelsesprocesser, leverandørportaler og samarbejdsværktøjer.

Sikkerhedssystemer er ikke klar til AI-revolutionen

De fleste organisationer behandler stadig identitet som et login-problem – noget, som IT-afdelingen håndterer med stærkere adgangskoder eller ekstra autentifikationslag oven på eksisterende systemer. Den egentlige udfordring er imidlertid at vide, hvem – eller hvad – der allerede har adgang til systemerne. Denne skelnen bliver stadig sværere at opretholde, samtidig med at digitale systemer bliver mere autonome.

Når grænsen mellem menneske og maskine udviskes, får det konkrete konsekvenser. Hvis en indkøbsproces ikke kan skelne mellem en menneskelig leder og en AI-impersonator, risikerer organisationer at sende købsordrer ud på falsk grundlag. Når revisionslogfiler ikke kan afgøre, hvordan en beslutning blev truffet, bryder hele sporbarhedskæden sammen.

«Vi er nødt til at genoverveje fundamentet for digital identitet. Det handler ikke længere om at kontrollere adgangen, men om at forstå, hvem der rent faktisk agerer i vores systemer.»

– Sikkerhedsekspert, anonymiseret

Vejen frem: Fra adgangskoder til adfærdsanalyse

Eksperter peger på, at løsningen ligger i at flytte fokus fra traditionel autentifikation til kontinuerlig adfærdsanalyse. I stedet for blot at kontrollere, hvem der logger ind, bør systemerne overvåge, hvordan de agerer, når de først er inde. AI-agenter og mennesker efterlader forskellige digitale fodaftryk, og disse mønstre kan bruges til at identificere mistænkelig aktivitet.

Nogle organisationer eksperimenterer allerede med såkaldte «Zero Trust»-modeller, hvor enhver handling – uanset om den kommer fra et menneske eller en maskine – bliver behandlet med skepsis, indtil den er bevist legitim. Dette kræver imidlertid en radikal ændring i tankegangen: Fra at stole på, at nogen er, hvem de hævder at være, til konstant at verificere, hvad de rent faktisk foretager sig.

Spørgsmålet er ikke længere, om AI-agenter vil ændre vores digitale identitet, men hvordan vi forbereder os på det.