AIがもたらすサイバー攻撃の新たな時代

かつて新たなソフトウェア脆弱性を悪用したサイバー攻撃を実行するには数ヶ月を要した。しかし現在では、Anthropicの「Project Glasswing」が示すように、生成AIがわずか数分で攻撃を可能にし、クラウド利用でコストは1ドル未満にまで低下している。

AIが防御側にもたらす新たな可能性

大規模言語モデル(LLM)はサイバー脅威を高める一方で、防御力強化の機会も提供している。Anthropicによると、同社のClaude Mythos Previewモデルは、主要なOSやWebブラウザに存在する1000以上の未知の脆弱性(ゼロデイ脆弱性)を事前に発見し、修正に貢献している。これらの脆弱性は、Anthropicによって開示され、パッチが適用されている。

AIによる脆弱性発見が攻撃者と防御者のいずれに有利に働くかはまだ明確ではない。しかし、防御側が優位に立つための戦略を理解するためには、過去の自動化された脆弱性発見の波を振り返ることが有効だ。

2010年代初頭の「ファジング」技術

2010年代初頭に登場した「ファジング」と呼ばれる技術は、プログラムに対して無数のランダムな不正な入力を与え、脆弱性を発見する手法だ。例えば「American Fuzzy Lop(AFL)」は、主要なブラウザやOSに深刻な脆弱性を発見した。

この脅威に対し、セキュリティコミュニティは迅速に対応した。組織は防御力を強化するためのシステムを構築した。Googleの「OSS-Fuzz」はその代表例で、数千のソフトウェアプロジェクトに対して24時間体制でファジングを実施し、ソフトウェア提供者が製品リリース前に脆弱性を発見・修正できるようにした。

今後、AIによる脆弱性発見も同様の流れをたどると予想される。組織はAIツールを標準的な開発プロセスに統合し、継続的に実行することで、新たなセキュリティ基準を確立していくだろう。

AIがもたらす非対称な脅威

しかし、このアナロジーには限界がある。従来のファジングは専門知識を要し、専門家向けのツールだった。一方、LLMは単純なプロンプトで脆弱性を発見できるため、攻撃者の技術的ハードルが大幅に低下している。その一方で、発見された脆弱性を修正するには、依然としてエンジニアによる詳細な分析と対応が必要であり、修正にかかる人的コストは依然として高い。

AIが脆弱性を「発見」するコスト vs. 「修正」するコスト

セキュリティ専門家のPeter Gutmannは著書『Engineering Security』で「多くのセキュリティ技術は、誰も注目していないために『安全』と見なされている」と述べた。この指摘は、AIが脆弱性発見のコストを劇的に引き下げる前の時代のものだ。現在では、多くのオープンソースソフトウェアが小規模なチームやボランティアによって維持されており、専門のセキュリティリソースが不足している。

この状況は深刻なリスクをはらんでいる。例えば2021年に発見されたLog4j脆弱性は、わずか数人のボランティアによって維持されていたロギングライブラリの脆弱性が、数億台のデバイスに影響を与える事態を引き起こした。これは、依存関係にある重要なソフトウェアが未だに十分な監査を受けていないという、より広範な問題の一例に過ぎない。

防御力強化に向けた具体的な戦略

AIによる脆弱性発見の時代において、防御側が優位に立つためには、以下の戦略が重要となる。

  • AIツールの積極的な導入:開発プロセスにAIベースの脆弱性スキャナーを組み込み、継続的に実行する。
  • 自動化された監視体制の構築:OSS-Fuzzのようなシステムを活用し、24時間体制で脆弱性を監視する。
  • コミュニティとの連携強化:オープンソースプロジェクトのセキュリティ監査を支援し、脆弱性発見時の迅速な対応を可能にする。
  • 人的リソースの確保:AIが発見した脆弱性を迅速に修正するための専門チームを整備する。

「セキュリティは、誰も注目していないから安全なのではない。誰も注目していないから見過ごされているだけだ」
— Peter Gutmann, 『Engineering Security』

AIの進化はサイバー攻撃の手法を劇的に変えつつある。しかし、それと同時に、防御側にも新たなツールと戦略が提供されている。今後、組織がこれらの技術をどのように活用し、セキュリティ体制を強化していくかが、サイバー脅威に対する勝敗を分ける鍵となるだろう。