DeepSeek V3とは
DeepSeek V3(ディープシークブイスリー)とは、中国のAIスタートアップDeepSeek社が公開した大規模なオープンウェイトのLLM(大規模言語モデル)です。総パラメータ数は約6,710億(671B)で、MoE(Mixture of Experts、混合専門家)と呼ばれるアーキテクチャを採用しており、推論時には約370億パラメータだけが活性化される点が特徴です。
イメージとしては、巨大な専門家集団のうち「今この問題に詳しい人だけ」を呼び出して答えてもらう仕組みです。重要なのは、フルサイズの密モデル(dense model)で同等性能を出すよりも、推論コストが大幅に抑えられる点です。実務では、コーディング・数学・多言語タスクで GPT-4o や Claude Sonnet クラスに匹敵する性能を、はるかに低い推論コストで実現できることから注目されています。さらに、モデルの重みがHugging Face上で公開されているため、自社サーバーで動かせる点も魅力です。
DeepSeek V3の読み方
ディープシークブイスリー
ディープシーク・ブイスリー(中黒区切り)
ディープシークバージョンスリー(バージョン読み)
DeepSeek V3の仕組み
DeepSeek V3の最大の特徴は、MoE(Mixture of Experts)アーキテクチャです。Transformerのフィードフォワード層を「専門家(Expert)」と呼ばれる複数のサブネットワークに分割し、トークンごとに最適な少数の専門家だけが活性化される仕組みになっています。
MoEの動作イメージ
トークン処理の流れ(簡略図)
専門家を選択
専門家のみ実行
ここが重要なポイントです。総パラメータ671Bのうち、各トークンの推論で使われるのは約37Bだけ。つまり「巨大なモデルの知識量」と「中型モデルの推論コスト」を両立できる設計です。注意してください、専門家のロード時にメモリ要件は大きくなるため、推論サーバー側のVRAM・メモリ容量計画は通常のdenseモデルより複雑になります。
主要なスペック
| 項目 | 値 |
|---|---|
| 総パラメータ数 | 約 671B(6,710億) |
| アクティブパラメータ | 約 37B(370億)/トークン |
| アーキテクチャ | MoE(Mixture of Experts) |
| コンテキスト長 | 最大 128K トークン |
| 学習データ | 14.8T トークン規模の多言語コーパス |
| 公開先 | Hugging Face(オープンウェイト) |
DeepSeek V3の使い方・実例
DeepSeek V3は、自社サーバーで動かす方法と、DeepSeekが提供するAPIを使う方法、両方が選択可能です。実務ではまずAPIで挙動を試してから、性能要件・コスト・規制要件に応じて自社運用を検討する流れが多いです。
DeepSeek API での呼び出し
OpenAI互換APIが提供されているため、既存のOpenAI SDKを使ったコードのbase_urlだけ変えれば呼び出せます。
# Python (openai SDK 流用)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat", # DeepSeek V3
messages=[{"role": "user", "content": "RustとGoの違いを300字で説明して"}]
)
print(response.choices[0].message.content)
自社サーバーでの推論(vLLM)
オープンウェイトの強みを活かし、自社GPUサーバーで動かす場合は推論エンジン(vLLMやSGLangなど)を使います。
# vLLM での起動例
vllm serve deepseek-ai/DeepSeek-V3 \
--tensor-parallel-size 8 \
--max-model-len 128000 \
--trust-remote-code
注意してください、671BパラメータのMoEモデルは8枚のH100 GPUでもギリギリの規模です。実務ではint4/int8量子化版を使うのが現実的です。
DeepSeek V3のメリット・デメリット
メリット
- 高い性能 — コーディング・数学・多言語タスクで GPT-4o や Claude Sonnet クラスに匹敵する。
- 推論コストが低い — MoEで活性化パラメータが少ないため、API料金が他社モデルより安価。
- オープンウェイト — 自社サーバーで運用可能。情報漏洩リスクのある業務にも適用しやすい。
- OpenAI互換API — 既存のSDK・コード資産がほぼそのまま使える。
- 多言語対応 — 中国語・英語に加え日本語の応答品質も実用レベル。
デメリット
- 大規模なインフラが必要 — 自社運用には高性能GPUクラスタが前提。
- 規制・データガバナンス — 中国系企業が提供するAPIを利用する場合、自社のデータ取扱規程との整合確認が必要。
- マルチモーダル制限 — 画像・音声・動画にはネイティブ対応していない(テキスト中心)。
- エコシステムは発展途中 — Anthropic・OpenAI と比べると外部ツール(MCP対応等)はまだ少ない。
DeepSeek V3とDeepSeek R1の違い
DeepSeek V3と混同されやすいのが、同じくDeepSeek社のDeepSeek R1です。両者は別モデルであり、設計目的が異なります。
| 観点 | DeepSeek V3 | DeepSeek R1 |
|---|---|---|
| 主目的 | 汎用LLM(チャット・コーディング) | 推論モデル(Chain of Thought強化) |
| 応答スタイル | 高速応答 | 思考過程を内部生成してから回答 |
| 適した用途 | 対話・要約・通常業務 | 数学・論理パズル・科学的推論 |
| 推論時間 | 短い | 長め(思考時間を要する) |
実務では「日常タスクはV3、複雑な推論が必要な場面はR1」と使い分けるのが定石です。重要なのは、両者は同じインフラに乗せて切り替え運用できる点で、運用コストを抑えやすい設計になっています。
よくある誤解
誤解1: DeepSeek V3は完全無料
誤りです。モデル重みは公開されていますが、DeepSeek社のAPIには通常の従量課金があります。ただし、他社の同等規模モデルと比べて低価格である点は事実です。
誤解2: 671Bパラメータをすべて活性化している
誤りです。MoEのため、推論時に活性化されるのは約37Bだけです。総パラメータ数と活性化パラメータ数の違いを理解せずに、メモリ要件を見積もると過大評価してしまいます。
誤解3: マルチモーダルに対応している
誤りです。DeepSeek V3はテキスト主体のLLMです。画像理解にはDeepSeek-VL系列など別モデルを使う必要があります。
実務での活用シーン
シーン1: 自社サーバーでのコーディング支援
機密性の高いコードを扱う企業では、外部APIに送るリスクを避けるため、DeepSeek V3を自社GPU上で動かして社内コーディング支援に使うケースが増えています。重要なのは、オープンウェイトであるため、データを社外に出さずに済む点です。
シーン2: 多言語サポート
日本語・英語・中国語に強いため、グローバル拠点を持つ企業のカスタマーサポートでも採用が進んでいます。実務では、各言語の応答品質を実機で評価し、特定言語だけ別モデルにフォールバックする構成も見られます。
シーン3: コスト最適化
API料金が他社の同等モデルより安価なため、大量のテキスト生成(要約・分類など)を行うバッチ処理で採用されます。注意してください、コストだけでなく、応答品質も評価軸に必ず入れることが重要です。
よくある質問(FAQ)
Q1. DeepSeek V3は商用利用できますか?
ライセンス条件次第です。公式リポジトリのLICENSEを必ず確認してください。多くのオープンウェイトモデル同様、商用利用可能ですが条件付きの場合があります。
Q2. ローカルPCで動きますか?
フルサイズはほぼ不可能です。家庭用PCでは量子化版でも厳しく、ローカル運用にはサーバーグレードのGPU環境が必要です。
Q3. ChatGPTとの違いは?
ChatGPTはOpenAI社のサービスで、複数モデル(GPT-5など)を切り替えて利用します。DeepSeek V3は単一の汎用モデル。価格と性能のバランスが異なります。
Q4. データのプライバシーは?
API利用時は、DeepSeek社のプライバシーポリシーに従います。中国法の適用範囲もあるため、機密データを扱う場合は自社運用が望ましいです。
Q5. 日本語の応答品質は?
実用レベルですが、最先端の日本語特化モデル(Llama-3.1-Swallowなど)には専門用語の精度で劣る場合があります。用途に応じて評価してください。
DeepSeek V3を支える技術ポイント
DeepSeek V3が「巨大だが安い」を実現できる背景には、いくつかの技術選択が重なっています。第一に、Multi-head Latent Attention(MLA)と呼ばれる仕組みで、注意機構のKV(Key/Value)キャッシュを圧縮することで長コンテキスト時のメモリ消費を大幅に削減しています。長コンテキスト推論を現実的なコストで提供できる重要な要因です。
第二に、補助損失なしの負荷分散(auxiliary-loss-free load balancing)。MoEは専門家への割り振りが偏ると一部の専門家ばかりに負荷が集中し、学習が不安定になります。DeepSeekはこれを解決する独自のロードバランス手法を採用し、安定した学習を実現しました。重要なのは、こうした工夫によって学習コストが他社のフロンティアモデルと比べて低く抑えられている点です。
第三に、FP8学習。多くの大規模モデルがBF16やFP16で学習するのに対し、DeepSeek V3は混合精度の中でFP8を積極活用することで、メモリ・通信量・計算量を削減しています。注意してください、FP8は数値ダイナミックレンジが狭く、安定した学習にはハードウェア・ソフトウェア両方の調整が必要です。実務での再現には専門知識が要ります。
導入を検討するときの観点
DeepSeek V3を組織で採用するかどうかを判断する際は、品質・コスト・コンプライアンスの3軸でバランスを取るのが定石です。品質面では、自社の代表的なタスク(コード生成・要約・分類など)で簡易ベンチマークを取り、GPT-5やClaude Sonnet 4.6と数値で比較することが第一歩です。重要なのは、ベンチマーク結果ではなく自社データでの評価で意思決定すること。
コスト面では、API利用と自社運用の総所有コスト(TCO)を比較します。API料金が安く見えても、月数十億トークン規模になると専用GPUクラスタの方が経済合理性を持つ場合があります。注意してください、運用人件費・電力コスト・モデル更新コストも忘れずに含めること。
コンプライアンス面では、データの送信先国・保存場所・モデル提供者の法的所在を確認します。実務では、機密データはオンプレ運用、それ以外はAPI利用と使い分ける構成が現実的です。組織のセキュリティ部門と法務部門の合意が、最終的な採用可否を左右します。
まとめ
- DeepSeek V3は中国DeepSeek社のオープンウェイトLLM
- 読み方は「ディープシークブイスリー」
- 総パラメータ671B、アクティブ37BのMoE構造
- コーディング・数学・多言語で高い性能
- OpenAI互換APIを提供、既存コードを流用可能
- 自社GPUで運用可能、機密データ処理にも適する
- R1(推論モデル)とは設計目的が異なる、使い分けが鉄則
参考文献・出典
📚 参考文献・出典
- ・DeepSeek-AI「DeepSeek-V3 Technical Report」 https://arxiv.org/abs/2412.19437
- ・DeepSeek-AI「DeepSeek-V3 GitHub」 https://github.com/deepseek-ai/DeepSeek-V3
- ・Hugging Face「deepseek-ai/DeepSeek-V3」モデルページ https://huggingface.co/deepseek-ai/DeepSeek-V3
Read this article in English:
What Is DeepSeek V3? A Complete Guide to the Open-Weight MoE Model, Its Architecture, and How It Compares to R1 →







































コメントを残す