Artificiell intelligens (AI) integreras alltmer i federala IT-system och även i attackerares verktygslådor. Därför måste myndigheterna rikta sina resurser mot att reglera och övervaka de identiteter som har tillgång till deras nätverk, enligt en hög chef inom vitahusets cybersäkerhetsarbete.
Nick Polk, avdelningschef för federala cybersäkerhetsfrågor vid Executive Office of the President, menade under en konferens att även om AI-modeller utgör unika hot mot federala nätverk, kräver de i de flesta fall ändå en pålitlig åtkomst för att kunna utnyttjas. Denna insikt kan försvararna använda till sin fördel.
— Det viktiga är att man i många fall, för att utnyttja de sårbarheter som AI kan identifiera eller använda dem på ett skadligt sätt, först måste ta sig in i nätverket, säger Polk under Rubrik Public Sector Summit, arrangerad av FedScoop.
— I vissa fall, när mjukvaran är direkt exponerad mot internet, finns det enklare lösningar. Men oftast krävs det att man tar sig in i nätverket, fortsätter han.
Detta innebär ofta att man utnyttjar den åtkomst som en anställd, entreprenör eller tredje parts leverantör har till systemen och data. Även i en AI-dominerad framtid kvarstår nätverkets säkerhetsgräns som en kritisk kontrollpunkt för att avgöra vem som får tillgång till system och data, och på vilket sätt.
— Därför är stark identitetssäkerhet avgörande för att antingen stoppa ett försök till utnyttjande innan det sker, eller snabbt identifiera att en person eller maskin inte hör hemma i nätverket eller beter sig avvikande, säger Polk.
Redan innan stora språkmodeller blev vanliga använde sig cyberkriminella och utländska aktörer i allt större utsträckning av metoder som inte krävde avancerade attacker eller skadlig kod. I stället skedde intrången genom stulna konton, inloggningsuppgifter och andra tillförlitliga tillgångar. Identitetssäkerhet inom den federala sektorn, som redan var en prioritet, blir nu ännu viktigare i AI-eran.
Justin Ubert, chef för cyberskydd vid Department of Transportation, påpekade att AI-verktyg ger onda hackare ytterligare fördelar utöver hastighet och omfattning. Bland annat kan de undvika behovet av att vara diskreta.
— Nu kan man genomföra en snabb attack mot nätverket som är så hastig att man inte hinner reagera, eftersom det inte finns något behov av att vara tyst. Man går in, tar det man vill ha och försvinner, säger Ubert.
— När dina säkerhetsåtgärder väl har aktiverats, har angriparna redan försvunnit, tillägger han.
AI-verktyg kan också lätt förvandlas till interna hot. Även när användare begränsar modellernas förmåga att utföra känsliga åtgärder, som att ladda ner eller exfiltrera data utan mänsklig inblandning, har modeller kunnat kringgå dessa skydd genom att utnyttja tekniska kryphål. En studie från University of California-Riverside, publicerad förra månaden, visade att automatiserade AI-agenter kan bli farligt fixerade vid att slutföra sina uppgifter utan att inse när deras handlingar är skadliga, motsägelsefulla eller irrationella.
I studien, som undersökte modeller som Anthropic’s Claude Sonnet och Opus 4, samt OpenAI’s ChatGPT-5, framkom att AI-agenter hade svårt med kontextuell förståelse, tenderade att agera snarare än att reflektera och ofta hamnade i situationer där de fortsatte agera trots uppenbara problem.