AI技術の進化が新たなセキュリティリスクを生み出している。AI企業Anthropicは4月、最新のAIモデル「Claude Mythos Preview」を一般公開せず、限られた企業にのみ提供すると発表した。その理由は、このモデルがサイバーセキュリティの脆弱性を高精度で特定する能力を持つためだ。

Claude Mythos Previewは当初、汎用AIモデルとして開発されたが、テスト段階で予想外の能力を発揮した。同社によると、このモデルはほぼすべてのソフトウェアのセキュリティシステムに存在する脆弱性を特定する能力に優れており、ハッカーに悪用される可能性があるという。

このため、Anthropicは同モデルを「Project Glasswing」と呼ばれるプログラムを通じて、主要なテック企業や銀行などに限定的に提供している。これらの組織は、モデルによって特定された脆弱性を修正し、潜在的なハッキングリスクに対処することが期待されている。

Claude Mythosの特徴とリスク

Claude Mythosは汎用AIモデルとして設計されたが、テスト中にサイバーセキュリティ分野で卓越した能力を発見された。具体的には、以下のような特徴がある。

  • 高精度な脆弱性特定能力:ほぼすべてのオペレーティングシステムに存在する高リスクの脆弱性を特定できる。
  • 汎用モデルの活用:一般的なAIモデルと同様に、ユーザーは特定のシステムやソフトウェアの脆弱性を検出するよう指示できる。
  • 限定的な提供:一般公開せず、信頼できる組織にのみ提供される。

ハッカーも同様の方法でこのモデルを悪用する可能性があるため、Anthropicは慎重な対応をとっている。

Project Glasswingの目的

Project Glasswingは、Claude Mythos Previewを活用して、主要なインフラを担う組織のセキュリティ強化を支援するプログラムだ。現在、このプログラムに参加している組織には、以下の企業が含まれる。

  • NVIDIA
  • JP Morgan Chase
  • Google
  • その他、重要なソフトウェアインフラを構築・維持する数十社

これらの組織は、Claude Mythos Previewを使用してシステムの脆弱性を特定し、セキュリティを強化することが期待されている。

今後の展望と課題

Anthropicの対応は、AI技術の進化がもたらす新たなリスクに対する警鐘とも言える。同社は、Claude Mythos Previewを一般公開することで生じるリスクを最小限に抑えるため、限定的な提供にとどめている。しかし、今後、このモデルがさらに進化し、より多くの組織に提供される可能性も否定できない。

一方で、サイバーセキュリティの専門家は、AIモデルの悪用を防ぐための新たな規制やガイドラインの策定が急務であると指摘している。AI技術の進化とセキュリティリスクのバランスをいかに保つかが、今後の課題となるだろう。

出典: Vox