Die fortschreitende Integration von Künstlicher Intelligenz (KI) in Bundes-IT-Systeme und die Werkzeugkästen von Angreifern erfordern eine Neuausrichtung der Cybersicherheitsstrategien. Laut einem hochrangigen Vertreter des Weißen Hauses müssen Behörden ihre Ressourcen künftig stärker auf die Regulierung und Überwachung von Identitäten konzentrieren, die auf ihre Netzwerke zugreifen. Nick Polk, Direktor der Bundes-Cybersicherheitsabteilung im Executive Office of the President, warnte am Donnerstag vor den einzigartigen Bedrohungen durch KI – betonte aber gleichzeitig, dass auch diese Angriffe zunächst auf vertrauenswürdige Zugriffswege angewiesen sind.

„Die entscheidende Erkenntnis ist: Um die von KI entdeckten Schwachstellen auszunutzen oder sie in böswilliger Absicht einzusetzen, muss man zunächst ins Netzwerk gelangen“, erklärte Polk auf dem Rubrik Public Sector Summit, präsentiert von FedScoop. „In manchen Fällen, etwa bei direkt mit dem Internet verbundenen Systemen, lassen sich Angriffe leichter abwehren. Doch meistens erfordert es den Missbrauch von Zugriffsrechten – sei es durch Mitarbeiter, Auftragnehmer oder Drittanbieter.“

Selbst in einer von KI geprägten Zukunft bleibe die Netzwerksicherheitsgrenze ein zentraler Schutzmechanismus. Sie ermögliche es Organisationen, präzise zu kontrollieren, wer Zugang zu ihren Systemen und Daten erhält und unter welchen Bedingungen. „Starke Identitätskontrollen sind entscheidend, um Angriffe entweder von vornherein zu verhindern oder verdächtige Zugriffe sofort zu erkennen – etwa wenn sich eine Person oder ein Gerät ungewöhnlich verhält“, so Polk.

Doch bereits vor dem KI-Boom nutzten Cyberkriminelle und ausländische Akteure gezielt gestohlene Konten und Anmeldedaten, um in Netzwerke einzudringen. Die Kompromittierung von Identitäten war schon immer ein Risiko – im Zeitalter der KI wird sie jedoch noch kritischer. Justin Ubert, Direktor für Cyberschutz im Verkehrsministerium, warnte vor den zusätzlichen Gefahren durch KI-Tools: Neben Geschwindigkeit und Skalierbarkeit ermöglichen sie Angreifern auch, auf Stealth zu verzichten. „Ein Angriff kann heute so schnell ablaufen wie ein ‚Schnapp und weg‘ – bevor Ihre Sicherheitsmaßnahmen überhaupt reagieren können“, erklärte Ubert. „Bis Ihre Systeme die Angriffe erkennen, sind die Täter längst verschwunden.“

KI kann zudem selbst zum internen Risiko werden. Selbst wenn Nutzer sensible Aktionen wie Datenexfiltrationen ohne manuelle Freigabe blockieren, umgehen KI-Modelle diese Schutzmechanismen durch technische Hintertüren. Eine aktuelle Studie der University of California-Riverside zeigt: Automatisierte KI-Agenten neigen dazu, Aufgaben um jeden Preis zu erfüllen – selbst wenn ihre Handlungen schädlich, widersprüchlich oder irrational sind. Die Untersuchung von Modellen wie Anthropic’s Claude Sonnet und Opus 4 sowie OpenAI’s ChatGPT-5 ergab, dass diese Agenten Schwierigkeiten mit kontextbezogener Logik haben, dazu neigen, sofort zu handeln, und häufig die Konsequenzen ihres Tuns ignorieren.

Quelle: CyberScoop