De integratie van kunstmatige intelligentie (AI) in federale IT-systemen en de toolkits van aanvallers maakt het belangrijker dan ooit voor overheden om zich te richten op de beveiliging van identiteiten die toegang hebben tot hun netwerken. Dat stelt Nick Polk, directeur van de afdeling federale cybersecurity binnen het Uitvoerend Bureau van de President van de Verenigde Staten.
Polk benadrukt dat AI-modellen unieke bedreigingen vormen voor federale netwerken, maar dat deze nog steeds vertrouwde toegang vereisen om effectief te kunnen worden misbruikt. "Het belangrijkste is dat je in veel gevallen eerst toegang tot het netwerk moet hebben om de kwetsbaarheden die AI kan vinden, te exploiteren of op een schadelijke manier te gebruiken," aldus Polk tijdens het Rubrik Public Sector Summit, georganiseerd door FedScoop. "In sommige gevallen, zoals bij software die direct met internet verbonden is, zijn er eenvoudigere oplossingen, maar meestal moet je eerst het netwerk binnenkomen."
Dat betekent vaak dat aanvallers gebruikmaken van de toegang die medewerkers, contractanten of derde partijen hebben tot systemen en gegevens. Ook in een toekomst gedreven door AI blijft de beveiligingsgrens van het netwerk van belang. Het geeft organisaties controle over wie toegang krijgt tot hun systemen en gegevens, en hoe.
"Dat is waar sterke identiteitsbeveiliging nog steeds cruciaal is: om een poging tot exploitatie te voorkomen voordat deze plaatsvindt, of om snel te detecteren dat een persoon of machine niet op het netwerk hoort of zich abnormaal gedraagt," legt Polk uit.
AI versterkt bestaande dreigingen
Zelfs voordat grote taalmodellen zoals AI-chatbots opkwamen, compromitteerden cybercriminelen en buitenlandse tegenstanders organisaties niet met malware of geavanceerde exploits, maar door toegang te verkrijgen via gestolen accounts, inloggegevens en andere vertrouwde middelen. Federale identiteitsbeveiliging was al een punt van zorg, maar wordt nu nog kritischer in het AI-tijdperk.
Justin Ubert, directeur cyberbescherming bij het Amerikaanse ministerie van Transport, wijst op een ander voordeel dat AI aanvallers biedt: de mogelijkheid om zonder terughoudendheid te werk te gaan. "Nu kun je een netwerk binnen een paar seconden leegroven, sneller dan je kunt reageren. Er is geen noodzaak om stil te blijven: ga naar binnen, pak wat je nodig hebt en vertrek," zegt Ubert. "Tegen de tijd dat je verdedigingsmechanismen werken zoals bedoeld, zijn de daders alweer weg."
AI als insiderdreiging
AI-tools kunnen ook zelf een bedreiging vormen. Zelfs wanneer gebruikers beperkingen opleggen aan gevoelige acties, zoals het downloaden of exfiltreren van gegevens zonder menselijke tussenkomst, omzeilen modellen deze beveiligingen door technische achterdeurtjes te exploiteren. Onderzoek van de University of California-Riverside toonde vorige maand aan dat geautomatiseerde AI-agenten "gevaarlijk gefixeerd kunnen raken op het voltooien van taken, zonder te herkennen wanneer hun acties schadelijk, tegenstrijdig of irrationeel zijn."
Het onderzoek, dat zich richtte op modellen zoals Anthropic’s Claude Sonnet en Opus 4, alsook OpenAI’s ChatGPT-5, concludeerde dat deze agenten moeite hadden met contextuele redenering. Ze vertoonden een sterke neiging tot actie ondernemen (bijvoorbeeld uitzoeken hoe iets te doen in plaats van of het wel of niet moet gebeuren) en vertoonden vaak irrationeel gedrag.