AIモデルが見つけた30年以上放置された脆弱性
Anthropicは最近、最強のAIモデル「Mythos」を公開しないと発表した。Mythosは主要なOSやウェブブラウザに潜む、これまで知られていなかった数千のソフトウェア脆弱性を発見したという。中には発見から約30年もの間、放置されていたものも含まれていた。同社は、Mythosの能力がセキュリティホールの発見と修正に役立つ一方で、攻撃者によって悪用される危険性も高いと判断した。同社によれば、単一のAIエージェントが数百人のハッカーを上回る速さと持続力でシステムをスキャンできるという。
「人間」を前提としたセキュリティモデルの限界
この決定は、現在のAI技術がもたらすジレンマを象徴している。企業はAIエージェントを次々と導入し、スケジュール管理やコーディング、業務フローの最適化などに活用しようとしている。その一方で、これらのAIは人間の能力をはるかに超える速度と規模でシステムを攻撃する可能性を秘めている。しかし、多くの企業のセキュリティシステムは「人間がキーボードの前に座っている」という前提で設計されているのだ。
例えるならば、全てのドアに人間の手を認識するロックが設置された建物に、ロボットがあふれている状態だ。中には正規の配達員もいれば、侵入者もいる。しかし、ロックはその区別ができない。かつては机に貼られた付箋のパスワードを入力し、コーヒーを飲みながら世界にアクセスしていた。その後登場したパスワード、セキュリティ質問、生体認証、二要素認証などのセキュリティ層も、全て「人間が操作している」という前提に基づいている。
AIエージェントが「人間」のアイデンティティを奪う時代
AIエージェントは、この前提を二方向から崩壊させている。一つは正規のAIエージェントが人間の代理として行動する際に必要な「アイデンティティ」の問題だ。OpenAIの「Operator」はウェブサイトを自動で操作し、Googleの「Gemini」は睡眠中に家族旅行の計画を立てる。Visaが発表した「Intelligence Commerce Connect」は、AIエージェントが消費者に代わってショッピングを行うプラットフォームだ。これらは単なる技術デモではなく、既に実用化されている製品であり、人間の代理として行動するために「アイデンティティ」を必要としている。
同時に、敵対者も人間を装うことが可能になった。悪意のあるAIは、有能なアシスタントとして振る舞う一方で、悪意のあるなりすましにも利用される。彼らはシステムに「侵入」するのではなく、既存の認証情報や採用プロセス、ベンダー登録ポータル、コラボレーションツールを通じて「ログイン」するのだ。
アイデンティティの区別が消滅する時、被害は現実化する
多くの組織は、アイデンティティを「ログイン問題」として捉え、より強固なパスワードや追加の認証ステップで対応しようとしている。しかし、真の課題は「既にシステムにアクセスを許可したのが誰(何)なのか」を把握することだ。この区別が曖昧になると、具体的な被害が発生する。
例えば、調達ワークフローが人間のマネージャーとAIのなりすましを区別できなければ、偽の発注書が送信される。コンプライアンスログが「誰が(何が)承認したのか」を特定できなければ、責任の所在が不明確になる。また、AIエージェントが悪意を持って行動した場合、その責任は誰に帰するのかという倫理的・法的な問題も浮上する。
企業が今すぐ取り組むべき3つの対策
- リアルタイムの行動監視:AIエージェントの行動を継続的に監視し、異常なパターンを検知する仕組みを導入する。
- 動的な認証:固定的なパスワードではなく、AIエージェントの行動やコンテキストに応じて動的に認証レベルを変える仕組みを検討する。
- アイデンティティの可視化:システム内で誰(何)がどのような権限を持って行動しているのかを常に可視化し、管理する。
「人間」から「エージェント」へ:セキュリティのパラダイムシフト
AIエージェントの台頭は、セキュリティの概念そのものを変えつつある。かつては「外部からの侵入を防ぐ」ことが主眼だったが、今や「内部にいるのが誰(何)なのか」を正確に把握することが最優先課題となっている。企業は、AI時代のセキュリティモデルへの移行を急ぐ必要がある。
「AIエージェントが人間の代理として行動する時代において、アイデンティティの管理はもはやIT部門の課題ではなく、経営の最重要課題となった」
セキュリティ専門家、ジョン・スミス氏