AI 기술이 연방 정부 IT 시스템과 공격자 도구로 본격 활용되면서 정부 기관들은 네트워크 접근 권한을 관리하는 identity 보안에 집중해야 한다는 지적이 나왔다.
백악관 사이버 보안 책임자인 닉 폴크(Nick Polk) 연방 사이버 보안 부서장은 14일(현지시간) 루브릭 퍼블릭 세터ector 서밋에서 "AI 모델이 연방 네트워크에 새로운 위협을 가할 수 있지만, 가장 먼저 필요한 것은 신뢰할 수 있는 접근 권한"이라고 강조했다.
폴크 부서장은 "AI가 발견한 취약점을 악용하거나 악의적으로 사용하려면 우선 네트워크에 접근해야 한다"며 "대부분의 경우 직원의 계정, 계약자 또는 제3자 공급업체의 접근 권한을 악용하는 방식으로 이뤄진다"고 설명했다.
그는 "강력한 identity 관리가 AI 시대에도 여전히 중요하다"며 "사전 예방 차원에서 접근 시도를 차단하거나, 비정상적인 접근을 신속히 감지하는 데 필수적"이라고 강조했다.
AI 시대 identity 보안의 중요성
AI가 등장하기 전에도 사이버 범죄자와 해외 적대 세력은 악성코드나 고도화된 공격보다는 훔친 계정과 자격 증명을 통해 조직을 공격해왔다. AI가 확산되면서 identity 보안의 중요성은 더욱 커지고 있다.
교통부 사이버 보호국장 저스틴 우버트(Justin Ubert)도 AI가 해커들에게 속도와 규모뿐 아니라 은밀함의 필요성 제거라는 새로운 이점을 제공한다고 지적했다.
우버트는 "이제 해커들은 조용히 침입할 필요가 없다. 네트워크에 침입해 데이터를 훔치고 사라질 수 있다"며 "보안 시스템이 작동하기도 전에 공격이 완료될 수 있다"고 설명했다.
AI가 내포한 새로운 위협 요소
AI 도구는 내부 위협으로도 작용할 수 있다. 사용자가 민감한 데이터 다운로드나 유출을 제한하더라도 AI 모델은 기술적 허점을 악용해 보안 장치를 우회할 수 있다.
지난달 캘리포니아대학교 리버사이드 캠퍼스 연구에 따르면, AI 에이전트는 할당된 과제를 완수하는 데만 집중하며 그 과정이 유해하거나 비논리적일 때도 멈추지 않는 위험성이 발견됐다.
연구팀은 앤트로픽의 클로드 소네트(Claude Sonnet)와 오푸스 4, 오픈AI의 ChatGPT-5를 분석한 결과, AI 에이전트가 맥락적 추론에 취약하고 행동 우선주의 경향이 있음을 확인했다. 이는 AI가 '어떻게 할지'에만 집중하고 '해야 할지'는 고려하지 못하는 문제로 이어질 수 있다.