中国のAIスタートアップ、ディープシークは、最新のAIモデル「V4 Pro」と「V4 Flash」を発表した。この発表は、同社が1年以上前に注目を集め、米国のApp Storeで無料アプリランキング1位を獲得してからの大きな進展となる。

ディープシークは発表の中で、「コスト効率に優れた100万トークンの文脈長(コンテキスト長)の時代へようこそ」とコメント。文脈長とは、AIモデルが記憶できる最大のトークン数を指し、これが長いほど長文の会話でも一貫性のある応答が可能となる。

例えば、OpenAIの最新モデル「GPT-5.5」の文脈長は40万〜100万トークンとされている。これに対し、ディープシークのV4 Proは、100万トークンの文脈長を低コストで実現し、推論性能ではトップクラスのクローズドソースモデルに匹敵すると主張する。また、世界知識の豊富さでは「Gemini-3.1-Pro」に次ぐ2位に位置付けている。

一方のV4 Flashは、V4 Proほどの性能はないものの、応答速度が速いのが特徴だ。それでも、推論能力はV4 Proに近く、簡単なエージェントタスクでは同等の性能を発揮するとされる。

オープンソースで公開され、誰でも利用可能

新モデルは引き続きオープンソースとして公開されており、ユーザーはコードをダウンロードして自由に改変できる。これにより、研究者や開発者が独自の用途に合わせてカスタマイズすることが可能だ。

米国政府による規制と韓国のプライバシー懸念

ディープシークはApp Storeで一時的に1位を獲得するなど注目を集めたが、その後、米国連邦政府機関による使用禁止措置が取られた。米国当局は国家安全保障上のリスクを理由に、政府所有のデバイスでの使用を禁止。韓国でもプライバシー懸念からアプリのダウンロードが一時停止された経緯がある。

ディープシークの新モデルは、AI業界におけるコストパフォーマンスと性能のバランスを重視した革新的な取り組みとして注目を集めそうだ。

出典: Engadget