DeepSeek R1とは
DeepSeek R1(ディープシーク アールワン)とは、中国のDeepSeek社(深度求索)が2025年1月に公開した、推論特化型のオープンウェイト大規模言語モデル(LLM)です。数学・コーディング・論理推論のベンチマークでOpenAIの o1 と同等レベルの性能を示しながら、MITライセンスでモデル重みが公開されており、商用利用・改変・再配布すべて可能である点が大きな特徴です。
身近な例えで言うと、これまで「高性能な推論AIは閉じた商用サービスでしか使えない」という常識を覆した存在です。DeepSeek R1はAPI利用料金がOpenAI o1のおよそ20〜30分の1に設定され、さらにモデル自体をダウンロードしてローカルやクラウドで動かせるため、研究機関・スタートアップ・個人開発者が自由に使えるAIとして注目を集めました。2025年初頭には米国株式市場に大きな影響を与え、「DeepSeekショック」と呼ばれる騒動を引き起こしたことでも有名です。
DeepSeek R1の読み方
ディープシーク アールワン
ディープシーク R1
ディープシーク・アールいち
DeepSeek R1の仕組み
DeepSeek R1のベースとなっているのは、同社の基盤モデル DeepSeek-V3(総パラメータ6710億のMoE構造、アクティブパラメータは370億)です。R1はこのV3に対して、強化学習(Reinforcement Learning, RL)のみで推論能力を獲得させたという点で従来の推論モデルと異なります。多くの推論モデルは「教師あり微調整(SFT) + 強化学習(RLHF)」の2段階で訓練しますが、R1(特に先行研究の R1-Zero)はSFTを省略し、RLだけで思考プロセスを学習させたことが論文で報告されています。
モデルファミリーの構成
| モデル名 | 特徴 | 用途 |
|---|---|---|
DeepSeek-R1-Zero |
SFT無しで純粋RLのみで訓練 | 研究用途、推論能力獲得の実験 |
DeepSeek-R1 |
R1-Zeroをさらに人間整合性向上 | 実運用向けの主要モデル |
| R1-Distill系 | Qwen・Llamaに蒸留した軽量版(1.5B〜70B) | ローカル実行、低リソース環境 |
推論プロセスの特徴
R1は回答前に <think>...</think> タグで囲まれた思考プロセスを出力するのが特徴です。ユーザーには最終回答のみを提示するUIが多いですが、APIでは思考パートも取得できます。ここが重要なポイントですが、思考パートが回答の正確さを支えており、無効化すると大幅に精度が落ちるため、複雑なタスクほど思考プロセスを許容すべきです。
DeepSeek R1の推論フロー
<think>タグ
回答確認
DeepSeek R1の使い方・実例
公式APIでの利用(OpenAI互換)
DeepSeek APIはOpenAI互換エンドポイントを採用しており、既存のOpenAI SDK(Python・Node.js等)からbase_urlを差し替えるだけで使えます。
from openai import OpenAI
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-reasoner", # R1モデルの識別子
messages=[
{"role": "user", "content": "円の面積が100のとき半径は?有効数字4桁で。"}
]
)
# 思考プロセス
print("【思考】", response.choices[0].message.reasoning_content)
# 最終回答
print("【回答】", response.choices[0].message.content)
Ollamaでローカル実行(軽量版)
Hugging Faceに公開されている蒸留版(例: DeepSeek-R1-Distill-Qwen-7B)は、16GBのGPUメモリがあれば個人PCで動かせます。Ollama経由なら数コマンドで試せます。
# Ollamaでのインストール例
ollama pull deepseek-r1:7b
# 対話モード起動
ollama run deepseek-r1:7b
# プロンプト例
>>> 25人の生徒を5つのチームに分ける方法は何通り?
LM Studioやvllmでの自己ホスト
より大規模な運用を想定する場合は、LM Studioで対話実行、vllmでAPIサーバ化、といった構成が一般的です。R1-Distill-Llama-70Bレベルになると数百GBのVRAMが必要になるため、A100/H100を積んだ専用サーバでの運用が前提になります。
DeepSeek R1のメリット・デメリット
メリット
✅ オープンウェイト (MIT)
商用利用・改変・再配布すべて可能。研究用途でも自由。
✅ コストが破格に安い
APIはOpenAI o1の数十分の1。自己ホストなら完全無料。
✅ 高水準の推論性能
AIME・MATH・LiveCodeBenchでo1級のスコア。
✅ 蒸留版あり
1.5B〜70Bまで選択肢があり、PCでもスマホでも動く。
デメリット
⚠️ 中国当局の検閲
公式APIは中国の政治的センシティブ話題で検閲あり(自己ホスト版は緩和可能)。
⚠️ データ送信先
APIはデータが中国のサーバに送られる。業務利用には要注意。
⚠️ 思考トークンが長い
推論専用ゆえ、応答までの時間と生成トークンが多くなりがち。
⚠️ マルチモーダル非対応
R1はテキスト専用。画像・音声はV3やV3-VLが必要。
DeepSeek R1とOpenAI o1の違い
R1とo1は「推論特化モデル」として比較されますが、次のような違いがあります。実務でどちらを選ぶかは、データの機密性・コスト感度・オープンソース要件の3軸で決まることが多いです。
| 観点 | DeepSeek R1 | OpenAI o1 |
|---|---|---|
| ライセンス | MIT(オープンウェイト) | クローズド(API専用) |
| API価格 | 入出力ともに数円/Mトークン級 | 数百円〜千円/Mトークン |
| 思考プロセス開示 | APIで取得可能 | 要約のみ(生の思考は非公開) |
| データ所在 | 中国(自己ホストで回避可) | 米国(Enterprise契約あり) |
| マルチモーダル | 非対応 | o1 Visionで画像対応 |
よくある誤解
誤解1「R1は完全オープンソース」
正しくはオープンウェイトです。MITで重みが公開されているのは事実ですが、学習データや学習コードの全てが公開されているわけではありません。Llama系と同様、「モデルは使えるが再現学習は困難」という位置付けです。
誤解2「自己ホストすれば検閲は完全に消える」
自己ホストでも、学習時に刷り込まれたバイアスは残ります。プロンプトで直接確認するとテーマによっては同じ傾向が出ることがあるため、ファインチューニングで緩和する必要があります。
誤解3「R1はLlamaを蒸留しただけ」
これは誤解です。R1自体はDeepSeek-V3をベースにしたMoEモデルで、R1-Distill-Llamaシリーズ(R1の思考をLlamaに蒸留した小型モデル)と混同されています。本家R1はDeepSeekオリジナルのアーキテクチャです。
実務での活用シーン
数学・アルゴリズム問題の自動解答
競技プログラミングや数学オリンピック型問題で高い精度を示すため、教育コンテンツ生成・自動採点支援などに使われています。AIME 2024ベンチマークで79.8%を記録し、OpenAI o1を僅差で上回る結果が報告されました。
コード生成・リファクタリング
LiveCodeBenchなどのコーディングベンチでも高スコア。特にバグ修正・ユニットテスト生成・アルゴリズム最適化といった「考える」タスクで強みが出ます。社内コーディング支援AIの選択肢として採用する企業が増えています。
エージェント基盤としての採用
オープンウェイトである強みを活かし、企業内エージェント(自律的にタスクをこなすAI)の推論エンジンとして、RAGシステムやツール呼び出しと組み合わせる用途が広がっています。コストの安さも相まって、実験的プロジェクトの定番となりました。
よくある質問(FAQ)
Q1: DeepSeek R1は日本語でも使えますか?
はい、日本語にも対応しています。ただし、日本語特化ではないため、固有名詞や日本の文化的文脈で誤りが出ることがあります。業務用途では英語または中国語での利用が最も安定します。
Q2: 蒸留版(Distill)とR1本体の違いは?
R1本体はMoEで重さ数百GBクラス、Distill版はQwenやLlamaをベースにR1の思考を模倣訓練した軽量モデル(1.5B〜70B)です。Distill版はR1ほどの精度は出ませんが、ローカル実行や低遅延が必要な用途に最適です。
Q3: 商用利用で注意すべき点は?
ライセンス上は自由ですが、公式APIを使う場合はデータが中国に送信される点が最大の懸念です。機密情報を扱う業務では、自己ホストかライセンス契約付きのクラウド(Together AI等)を選ぶのが無難です。
Q4: 「DeepSeekショック」とは何ですか?
2025年1月下旬にR1が公開されたタイミングで、「中国の低予算AIがOpenAIに追いついた」というニュースが広がり、NVIDIA株が一日で約17%下落するなど米国株式市場に大きなインパクトを与えた出来事を指します。
Q5: R1でRAGを組む場合の注意点は?
R1は内部思考が長いため、トークン消費が増える傾向があります。RAG構成では思考の最大長を制限するか、Distill版で軽量化する工夫が必要です。
まとめ
- DeepSeek R1は2025年1月公開の推論特化型オープンウェイトLLM
- MITライセンスで商用利用・改変・再配布すべて可能
- 強化学習のみで推論能力を獲得した独自訓練手法
- OpenAI o1と同等ベンチマーク、しかもAPI価格は数十分の1
- 1.5B〜70Bの蒸留版があり、ローカル実行も可能
- 注意点は中国側データ送信・検閲・マルチモーダル非対応
- AIショックを引き起こした2025年最重要のオープンモデルの一つ
参考文献・出典
📚 参考文献・出典
- ・DeepSeek公式「DeepSeek-R1 Release Announcement」 https://api-docs.deepseek.com/news/news250120
- ・Hugging Face「deepseek-ai/DeepSeek-R1」モデルカード https://huggingface.co/deepseek-ai/DeepSeek-R1
- ・DeepSeek論文「DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via RL」 https://arxiv.org/abs/2501.12948




































コメントを残す