自律型AIエージェントのセキュリティリスクに警鐘

米国、英国、オーストラリア、カナダ、ニュージーランドのサイバーセキュリティ機関は、自律型人工知能(AI)システムをサイバーセキュリティの核心的な課題として捉え、安全な導入に向けた共同ガイドラインを公表した。同技術は既に重要インフラや防衛分野で活用されつつあるが、不十分なセキュリティ対策が懸念される。

エージェント型AIとは

エージェント型AIとは、大規模言語モデルを基盤とし、自律的に計画を立て、意思決定を行い、行動を実行できるソフトウェアを指す。外部ツールやデータベース、メモリストア、自動化ワークフローと接続することで、人間による逐次レビューなしに複数のタスクを実行可能だ。米国サイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)、国家安全保障局(NSA)、オーストラリアサイバーセキュリティセンター(ACSC)、カナダサイバーセキュリティセンター(CCCS)、ニュージーランド国家サイバーセキュリティセンター(NCSC)、英国国家サイバーセキュリティセンター(NCSC)が共同でガイドラインを策定した。

既存のセキュリティフレームワークへの統合を推奨

ガイドラインの核心は、エージェント型AIに特化した新たなセキュリティ分野を確立するのではなく、既存のセキュリティフレームワークやガバナンス体制に統合することだ。ゼロトラスト、多層防御、最小権限アクセスといった原則を適用し、既存の仕組みを活用することを求めている。

5つの主要なリスクカテゴリー

ガイドラインでは、エージェント型AIに潜むリスクを5つのカテゴリーに分類している。

  • 特権リスク:過剰なアクセス権の付与により、単一の侵害が甚大な被害を引き起こす可能性がある。
  • 設計・設定上の脆弱性:不適切な設定がシステム稼働前にセキュリティギャップを生む。
  • 行動リスク:設計者が想定していない方法で目標を達成しようとするケース。
  • 構造的リスク:複数のエージェントが連携することで、システム全体に波及する障害を引き起こす可能性。
  • 説明責任の欠如:意思決定プロセスがブラックボックス化し、ログの解析が困難なため、障害発生時の原因追及が難しい。

この他にも、プロンプトインジェクションと呼ばれる、データ内に埋め込まれた指示によってエージェントの挙動を悪用する手法や、アイデンティティ管理の重要性が指摘されている。エージェントごとに暗号化された認証情報を付与し、短期的な資格情報の使用、全ての通信の暗号化を推奨。特に高影響度の行動については、人間による承認を義務付けることが求められている。

具体的なセキュリティ対策

ガイドラインでは、以下のような具体的な対策を提示している。

  • 各エージェントに暗号化された認証情報を付与し、短期的な資格情報を使用する。
  • 他のエージェントやサービスとの通信を全て暗号化する。
  • 高影響度の行動については、人間による承認を必須とする。
  • システム設計者が承認が必要な行動を決定する責任を負う。

セキュリティ分野の更なる発展を呼びかけ

エージェント型AIに特有のリスクの中には、既存のフレームワークではカバーしきれないものも存在する。ガイドラインでは、セキュリティプラクティス、評価方法、標準の成熟に向けた更なる研究と協力の必要性を強調している。組織は、これらの技術が運用面でますます重要な役割を果たすにつれ、リスク管理を強化する必要があるとしている。

「セキュリティプラクティス、評価方法、標準が十分に成熟するまでは、組織はエージェント型AIシステムが既に運用環境に導入されていると想定し、慎重に対応すべきである」
米国サイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)

出典: CyberScoop