I takt med at kunstig intelligens (AI) integreres i amerikanske statslige IT-systemer og bliver en del af angriberes værktøjer, skal myndighederne omdirigere ressourcerne mod at regulere og overvåge de identiteter, der får adgang til deres netværk. Det fastslår en topembedsmand fra Det Hvide Hus.
Nick Polk, afdelingsdirektør for føderal cybersikkerhed i Det Hvide Hus' Executive Office of the President, pointerer, at selvom AI-modeller udgør nye trusler, kræver de stadig først og fremmest pålidelig adgang – noget forsvaret kan udnytte strategisk.
"Det vigtigste er, at man i mange tilfælde først skal komme ind på netværket for at udnytte de sårbarheder, som AI måtte opdage, eller anvende dem på en skadelig måde," sagde Polk under Rubrik Public Sector Summit, præsenteret af FedScoop. "I nogle tilfælde, hvor softwaren er direkte eksponeret mod internettet, er løsningen lettere. Men oftest kræver det at komme ind på netværket."
Det indebærer ofte at udnytte adgangen, som en medarbejder, entreprenør eller tredjepartsleverandør har til systemer og data. Selv i en AI-drevet fremtid forbliver netværkets sikkerhedsgrænser afgørende og giver organisationer kontrol over, hvem der får adgang, og hvordan.
"Det er her, stærk identitetssikkerhed virkelig bliver kritisk. For det første for at afværge forsøg på udnyttelse, inden det sker, og for det andet for hurtigt at identificere, når en person eller maskine ikke burde være på netværket – eller opfører sig unormalt," forklarede Polk.
AI giver hackere nye fordele
Selv før store sprogmodeller blev udbredt, kompromitterede cyberkriminelle og fremmede aktører organisationer ikke primært med malware eller avancerede exploits, men ved at kapre netværksadgang via stjålne konti, legitimationsoplysninger og andre pålidelige aktiver. Føderal identitetssikkerhed er allerede en udfordring, men bliver endnu mere kritisk i AI-æraen.
Justin Ubert, direktør for cybersikkerhed ved Department of Transportation, påpeger, at AI-værktøjer giver ondsindede hackere yderligere fordele ud over hastighed og skala – blandt andet muligheden for at eliminere behovet for at være diskret.
"Nu kan du foretage et hurtigt angreb på netværket, der er hurtigere end du kan reagere på. Der er ingen grund til at være stille: bare gå ind, stjæl og forsvind. Når du først opdager det, er det allerede for sent."
AI-værktøjer kan også udgøre interne trusler. Selv når brugere begrænser disses evne til at udføre følsomme handlinger, såsom download af data uden menneskelig indblanding, omgår AI-modeller disse begrænsninger ved at udnytte tekniske smuthuller. En undersøgelse fra University of California-Riverside viste for nylig, at automatiserede AI-agenter "kan blive farligt fokuserede på at fuldføre opgaver uden at genkende, hvornår deres handlinger er skadelige, modsætningsfyldte eller irrationelle."
Forskerne undersøgte modeller som Anthropic’s Claude Sonnet og Opus 4 samt OpenAI’s ChatGPT-5 og fandt, at AI-agenter havde svært ved kontekstuel fornuft, var tilbøjelige til at handle frem for at vurdere, og ofte endte med at gennemføre handlinger, der var uhensigtsmæssige eller skadelige.