アニメ・サブカルチャー解説AI
100万トークン」の文脈長(コンテキスト)を実現しつつ、なおかつオープンソースを整理
100万トークン」の文脈長(コンテキスト)を実現しつつ、なおかつオープンソース。 中国のAI企業DeepSeekが放った新作モデルは、技術的なハードルと地政学的な緊張を同時に押し付けてくる。 ## 図書館の司書が、突然全部覚えられるようになったら AIとの会話で「さっき話したこと忘れた。 それは、AIの「作業机」——つまりコンテキスト長——が狭いためだ。
画像出典: Engadget 由来の関連ビジュアル
何が起きたか
100万トークン」の文脈長(コンテキスト)を実現しつつ、なおかつオープンソース。中国のAI企業DeepSeekが放った新作モデルは、技術的なハードルと地政学的な緊張を同時に押し付けてくる。
図書館の司書が、突然全部覚えられるようになったら AIとの会話で「さっき話したこと忘れた?」と指摘した経験はないだろうか。それは、AIの「作業机」——つまりコンテキスト長——が狭いためだ。トークン(文字や単語の塊)として数えられるこの机の広さが、従来は数万字程度が精一杯だった。 DeepSeekが発表したV4 ProとV4 Flashは、その机の広さを「100万トークン」にまで拡張した。具体的に言えば、長編小説1冊分(『坊ちゃん』なら約30冊分)を一度に読み込み、どのキャラクターが何を言ったか、どの伏線がどこにあったかを把握しながら会話できるということだ。OpenAIが最近発表したGPT-5.5(文脈長40万〜100万トークン)と同等か、それ以上のスペックを、無料で(正確にはモデル自体は無料だがAPI利用は有料の場合もあるが)提供する。 ここが面白いのだが、DeepSeekは「コスト効率的な100万トークン時代へようこそ」と宣言している。つまり、機械的にメモリを増やしただけでなく、計算コストを抑えて実用化した点を売りにしている。これは、巨大な図書館を運営しつつ、電気代を抑えているようなものだ。
二つのモデル、「Pro」と「Flash」の違い 今回リリースされたのは二つのモデルで、使い分けが明確だ。 **V4 Pro**は、総パラメータ1.6兆(1.6T)で、そのうち一度に動くのは490億(49B)という巨大なモデル。DeepSeekは「推論能力で世界トップのクローズドソース(閉鎖的)モデルに匹敵」と主張し、世界知識の豊富さではGoogleの<a href="https://www.amazon.co.jp/s?k=Gemini+100万トークン」の文脈長(コンテキスト)を実現しつつ、なおかつオープンソースを整理&tag=None" rel="nofollow noopener sponsored" target="_blank" class="affiliate-link" data-platform="amazon">Gemini</a>-3.1-Proに次ぐ水準だと述べている。正直なところ、中国企業が「世界トップ」と言っても半信半疑になりがちだが(米国企業のベンチマークには政治的な偏りもあるし)、オープンソースなので誰でも検証できる点が興味深い。 一方の**V4 Flash**は、総パラメータ2840億(284B)でアクティブは130億(13B)。Proに比べて小型だが、その分応答速度が速い。しかし肝心なのは、DeepSeekが「推論能力はProに接近し、簡単なエージェント(自動実行)タスクでは同等の性能」と謳っている点だ。要するに、重い思考はProに任せ、日常の素早い返答はFlashで、という使い分けが可能になった。 「エージェント能力」という言葉が気になる人もいるだろう。これは、AIが「考える」だけでなく、実際にブラウザを操作したり、ファイルを整理したり、他のソフトと連携してタスクを実行できる能力のことだ。つまり、<a href="https://www.amazon.co.jp/s?k=ChatGPT+100万トークン」の文脈長(コンテキスト)を実現しつつ、なおかつオープンソースを整理&tag=None" rel="nofollow noopener sponsored" target="_blank" class="affiliate-link" data-platform="amazon">ChatGPT</a>のような「応答するだけ」のAIから、こちらに代わってパソコンを動かす「デジタル秘書」への進化を目指しているわけだ。
オープンソースの利点と、囲いの中での優劣 DeepSeekの最大の特徴は、モデルがオープンソースである点だ。GitHubなどでコードをダウンロードでき、自分のサーバーで動かしたり、独自に改良したりできる。これはOpenAIやGoogleのモデル(API経由でしか触れない)とは対極的なアプローチだ。 この開放性が意味するのは、企業が機密データを外部のクラウドに送らず、自社サーバーでAIを動かせる点だ。日本の病院や法律事務所など、個人情報を厳しく管理する現場にとっては、これは大きなメリットだ。ただし、DeepSeekのコードを使うということは、中国企業が開発した技術基盤に依存するということでもある。 ここで状況はややこしくなる。DeepSeekは昨年、米国のApp Storeで無料アプリ1位になった直後、連邦政府機関や政府所有デバイスでの使用を禁止された。国家セキュリティ上のリスクと、米国のAI株価に与える影響が懸念されたのだ。韓国でも個人情報保護の観点からアプリのダウンロードが一時停止された。 つまり、技術的には「使える」が、政治的には「使って良いか議論の余地がある」という二重構造だ。個人であればスマホにアプリを入れて遊ぶ分には問題ないが、企業が業務で導入する際は、データが中国のサーバーに流れていないか、コード
背景
AI分野では新機能の発表そのものよりも、どの業務に使えるのか、既存のワークフローにどう組み込めるのかが評価を左右する。今回の発表も、性能だけでなく実運用での使い勝手まで見ておく必要がある。
重要なポイント
読者にとっての論点は、機能の新しさよりも導入判断に値する差があるかどうかだ。企業や開発者にとっては、既存ツールとの競合や置き換え余地まで含めて見ていく必要がある。
今後の焦点
続報では、提供条件、料金体系、既存モデルとの差、実際の利用例がどこまで示されるかを確認したい。
この記事が役に立ったら共有してください
Premiumプレミアム限定
関連記事
関連記事


