オープンAI、サイバー防衛専門家向けにGPT-5.5の制限緩和版をリリース

オープンAIは10月17日、サイバー防衛専門家向けにGPT-5.5の制限を緩和したバージョン「GPT-5.5-Cyber」の提供を開始したと発表した。同社によると、このモデルは Anthropic の「Mythos Preview」と同等の脆弱性発見・悪用能力を持つことが、最新のセキュリティテストで明らかになったという。

なぜ注目されているのか

近年、AIモデルの進化により、サイバー攻撃の自動化や脆弱性の悪用が加速している。特に GPT-5.5 と Mythos は、従来の AI では困難だった複雑な攻撃シナリオを実行できる能力を備えており、サイバー防衛の現場に大きな影響を与えつつある。

具体的な機能と制限

GPT-5.5-Cyber は、サイバー防衛専門家向けに特化した機能を提供する。具体的には以下の通り:

  • 脆弱性の Proof of Concept(PoC)作成支援:発見した脆弱性の再現コードや攻撃シミュレーションを自動生成。
  • 未知のコード解析支援:新たなマルウェアや攻撃手法の解析を支援。
  • パッチレビュー機能:ソフトウェアの脆弱性に対するパッチの有効性を検証。
  • 攻撃対象面のマッピング:組織内の脆弱なシステムやネットワークを特定。

一方で、悪意ある行為を防ぐため、以下の機能は引き続き制限される:

  • 認証情報の窃取
  • マルウェアの作成・配布
  • 標的型攻撃の実行支援

テスト結果と他社との比較

イギリスの AI セキュリティ研究機関「UK AI Security Institute」が実施したテストでは、GPT-5.5 が 32 段階のシミュレートされた企業攻撃を 2 回成功させたのに対し、Mythos は 3 回成功した。いずれのモデルも、従来の AI では達成できなかった成果を示した。

企業のアプローチの違い

オープンAI と Anthropic は、サイバー防衛向け AI モデルの提供方法で異なるアプローチを採用している。

  • Anthropic:厳格なアクセス制限を設け、約 40 の組織に Mythos を提供。一部は「Project Glasswing」を通じて情報共有を実施。
  • オープンAI:よりオープンなアプローチを採用。制限付きバージョンと制限緩和版の両方を提供し、信頼できる組織に柔軟にアクセスを許可。

今後の展望と課題

ホワイトハウスでは、連邦政府による AI モデルの規制強化に向けた検討が進められており、今後さらなる規制措置が導入される可能性がある。また、悪意ある組織による AI の悪用リスクが高まる中、企業や政府機関は迅速な対応が求められている。

「AI の進化はサイバー防衛に革命をもたらす一方で、悪意ある利用のリスクも高めている。責任あるイノベーションが不可欠だ」
— サイバー防衛専門家のコメント

出典: Axios