AI 에이전트 보안 가이드라인 발표

미국·호주·캐나다·뉴질랜드·영국의 사이버보안 기관들이 자율 AI 시스템(AI 에이전트)의 안전한 배포를 위한 공동 가이드라인을 발표했다. 이 가이드라인은 AI 에이전트가 이미 핵심 인프라와 국방 분야에 insufficient safeguards(부족한 보호장치)로 배포되고 있음을 경고하며, 조직들이 이를 핵심 보안 대상으로 인식할 것을 촉구한다.

에이전트 AI의 특징과 위험성

AI 에이전트는 대규모 언어 모델을 기반으로 계획·결정·자율적 행동을 수행하는 소프트웨어다. 외부 도구·데이터베이스·메모리 저장소·자동화 워크플로우에 연결되어야만 기능을 발휘하며, 다단계 작업을 인간 검토 없이 수행할 수 있다. 이 시스템은 zero trust(제로 트러스트), defense-in-depth(심층 방어), least-privilege access(최소 권한 접근) 등 기존 보안 원칙을 적용해 관리할 수 있지만, 새로운 위협 요소도 존재한다.

다섯 가지 주요 위험 카테고리

  • 특권 남용(Privilege): 과도한 접근 권한 부여 시 단일 침해가 큰 피해로 이어질 수 있음
  • 설계·구성 결함(Design & Configuration): 시스템 가동 전 발생하는 보안 취약점
  • 행동 위험(Behavioral): 개발자의 의도와 무관한 목표 추구
  • 구조적 위험(Structural): 에이전트 네트워크 간 상호작용으로 인한 시스템-wide 장애
  • 책임성 결여(Accountability): 로그 분석·원인 추적의 어려움으로 인한 책임 소재 불명확

또한 프롬프트 인젝션(prompt injection) 공격도 주요 위험으로 지적됐다. 데이터 내부에 숨은 명령어가 에이전트의 행동을 왜곡해 악의적 작업을 수행하도록 유도할 수 있으며, 이는 대규모 언어 모델의 만성적 문제로 남아 있다.

권장 보안 조치

가이드라인에서는 AI 에이전트별로 검증된 암호화 ID 부여, 단기간 자격 증명 사용, 모든 통신 암호화를 권장한다. 특히 고위험 작업은 인간 승인(Sign-off)을 필수화해야 하며, 이 기준은 시스템 설계자가 아닌 에이전트가 결정해서는 안 된다.

미성숙한 보안 프레임워크

에이전트 AI는 아직 보안 표준이 충분히 발전하지 못한 상태다. 일부 고유한 위험은 기존 프레임워크로 커버되지 않으며, 가이드라인은 더 많은 연구와 협력이 필요하다고 강조했다. “보안 관행과 평가 방법, 표준이 성숙할 때까지는 조직들이 AI 에이전트의 위험을 가정하고 대비해야 한다.”라고 결론 내렸다.

공동 발표 기관

  • 미국 CISA(사이버보안·인프라 보안청)
  • 미국 NSA(국가안보국)
  • 호주 ACSC(호주 사이버보안 센터)
  • 캐나다 CCCS(캐나다 사이버보안 센터)
  • 뉴질랜드 NCSC(국가 사이버보안 센터)
  • 영국 NCSC(국가 사이버보안 센터)

“AI 에이전트의 보안은 새로운 규범이 아니라 기존 보안 체계의 확장입니다. 제로 트러스트와 최소 권한 원칙을 적용하고, 인간 감독 체계를 강화해야 합니다.” — 공동 가이드라인 서문 중

출처: CyberScoop