一、背景
2025 年 1 月 20 日,杭州深度求索人工智能基础技术研究有限公司发布了高性能 AI 推理模型 。该模型在数学、代码和自然语言推理等任务上表现出色,性能与 OpenAI 的 o1 正式版相当。作为国产 AI 技术的重大突破,DeepSeek R1 以开源形式向全球开发者开放,遵循 MIT 协议,支持免费商用。
DeepSeek R1 是国产高性能推理模型,支持开源和商用。本文介绍了其核心优势及性能表现,详细讲解了基于 Ollama 的本地部署流程,包括安装、模型下载与运行,并提供了通过 Open Web UI 访问及在 Python 项目中集成本地与云端 API 的代码示例,帮助开发者快速上手使用。

2025 年 1 月 20 日,杭州深度求索人工智能基础技术研究有限公司发布了高性能 AI 推理模型 。该模型在数学、代码和自然语言推理等任务上表现出色,性能与 OpenAI 的 o1 正式版相当。作为国产 AI 技术的重大突破,DeepSeek R1 以开源形式向全球开发者开放,遵循 MIT 协议,支持免费商用。
强化学习驱动的推理能力:R1 在后训练阶段应用了强化学习技术(RLHF),无需大量监督微调数据即可显著提升推理能力,有效降低了训练成本。
长链推理与模型蒸馏:采用长链推理(Chain of Thought)技术,能够逐步分解复杂问题。同时支持模型蒸馏,可将 R1 强大的推理能力迁移到小型模型中,满足特定场景下的低延迟或低成本需求。
开源与灵活的许可证:遵循 MIT License 开源协议,允许自由使用、修改和商用,极大地推动了 AI 技术的普及与创新。
对于所有模型,最大生成长度均设置为 32,768 个标记。对于需要采样的基准测试,我们使用 0.6 的温度值、0.95 的 top-p 值,并针对每个查询生成 64 个响应以估算 pass@1。
| Category | Benchmark (Metric) | Claude-3.5-Sonnet-1022 | GPT-4o 0513 | DeepSeek V3 | OpenAI o1-mini | OpenAI o1-1217 | DeepSeek R1 |
|---|---|---|---|---|---|---|---|
| Architecture | - | - | MoE | - | - | MoE | - |
| # Activated Params | - | - | 37B | - | - | 37B | - |
| # Total Params | - | - | 671B | - | - | 671B | - |
| English | MMLU (Pass@1) | 88.3 | 87.2 | 88.5 | 85.2 | 91.8 | 90.8 |
| MMLU-Redux (EM) | 88.9 | 88.0 | 89.1 | 86.7 | - | 92.9 | |
| MMLU-Pro (EM) | 78.0 | 72.6 | 75.9 | 80.3 | - | 84.0 | |
| DROP (3-shot F1) | 88.3 | 83.7 | 91.6 | 83.9 | 90.2 | 92.2 | |
| IF-Eval (Prompt Strict) | 86.5 | 84.3 | 86.1 | 84.8 | - | 83.3 | |
| GPQA-Diamond (Pass@1) | 65.0 | 49.9 | 59.1 | 60.0 | 75.7 | 71.5 | |
| SimpleQA (Correct) | 28.4 | 38.2 | 24.9 | 7.0 | 47.0 | 30.1 | |
| FRAMES (Acc.) | 72.5 | 80.5 | 73.3 | 76.9 | - | 82.5 | |
| AlpacaEval2.0 (LC-winrate) | 52.0 | 51.1 | 70.0 | 57.8 | - | 87.6 | |
| ArenaHard (GPT-4-1106) | 85.2 | 80.4 | 85.5 | 92.0 | - | 92.3 | |
| Code | LiveCodeBench (Pass@1-COT) | 33.8 | 34.2 | - | 53.8 | 63.4 | 65.9 |
| Codeforces (Percentile) | 20.3 | 23.6 | 58.7 | 93.4 | 96.6 | 96.3 | |
| Codeforces (Rating) | 717 | 759 | 1134 | 1820 | 2061 | 2029 | |
| SWE Verified (Resolved) | 50.8 | 38.8 | 42.0 | 41.6 | 48.9 | 49.2 | |
| Aider-Polyglot (Acc.) | 45.3 | 16.0 | 49.6 | 32.9 | 61.7 | 53.3 | |
| Math | AIME 2024 (Pass@1) | 16.0 | 9.3 | 39.2 | 63.6 | 79.2 | 79.8 |
| MATH-500 (Pass@1) | 78.3 | 74.6 | 90.2 | 90.0 | 96.4 | 97.3 | |
| CNMO 2024 (Pass@1) | 13.1 | 10.8 | 43.2 | 67.6 | - | 78.8 | |
| Chinese | CLUEWSC (EM) | 85.4 | 87.9 | 90.9 | 89.9 | - | 92.8 |
| C-Eval (EM) | 76.7 | 76.0 | 86.5 | 68.9 | - | 91.8 | |
| C-SimpleQA (Correct) | 55.4 | 58.7 | 68.0 | 40.3 | - | 63.7 |
DeepSeek 此次发布了 R1-Zero、R1 以及多个蒸馏后的小模型。以下是它们的性能对比:
| Model | AIME 2024 pass@1 | AIME 2024 cons@64 | MATH-500 pass@1 | GPQA Diamond pass@1 | LiveCodeBench pass@1 | CodeForces rating |
|---|---|---|---|---|---|---|
| GPT-4o-0513 | 9.3 | 13.4 | 74.6 | 49.9 | 32.9 | 759 |
| Claude-3.5-Sonnet-1022 | 16.0 | 26.7 | 78.3 | 65.0 | 38.9 | 717 |
| o1-mini | 63.6 | 80.0 | 90.0 | 60.0 | 53.8 | 1820 |
| QwQ-32B-Preview | 44.0 | 60.0 | 90.6 | 54.5 | 41.9 | 1316 |
| DeepSeek-R1-Distill-Qwen-1.5B | 28.9 | 52.7 | 83.9 | 33.8 | 16.9 | 954 |
| DeepSeek-R1-Distill-Qwen-7B | 55.5 | 83.3 | 92.8 | 49.1 | 37.6 | 1189 |
| DeepSeek-R1-Distill-Qwen-14B | 69.7 | 80.0 | 93.9 | 59.1 | 53.1 | 1481 |
| DeepSeek-R1-Distill-Qwen-32B | 72.6 | 83.3 | 94.3 | 62.1 | 57.2 | 1691 |
| DeepSeek-R1-Distill-Llama-8B | 50.4 | 80.0 | 89.1 | 49.0 | 39.6 | 1205 |
| DeepSeek-R1-Distill-Llama-70B | 70.0 | 86.7 | 94.5 | 65.2 | 57.5 | 1633 |
从表中可以看出,R1 蒸馏后的小模型在推理能力上显著超越了原始的 Qwen2.5 和 Llama 模型,展现了 R1 推理模式的高效迁移性。
DeepSeek R1 蒸馏出的 1.5B、7B、8B、14B 等小模型非常适合在本地部署,尤其适合资源有限的中小企业和开发者。以下是常用的部署工具和方法。
在开始部署前,请确保您的机器满足以下基本要求:
注:本文章主要使用 Ollama 部署 DeepSeek R1。
首先,我们需要让 Ollama 在您的计算机上启动并运行。方法如下:访问 Ollama 官网并下载与您的操作系统匹配的版本。下载后,运行安装程序并按照提示操作。
curl -fsSL https://ollama.com/install.sh | sh
在我们继续之前,让我们确保 Ollama 已正确安装。打开终端或命令提示符并输入:
ollama --version
注:如果您看到弹出版本号,那么您就成功了!如果没有,请仔细检查您是否正确遵循了安装步骤。
Ollama 让下载 Deepseek R1 变得轻而易举。只需在终端中运行以下命令:
ollama run deepseek-r1
这可能需要一段时间,具体取决于您的互联网速度。
下载完成后,您就可以启动 Deepseek R1。根据硬件配置选择不同版本:
# Default 7B model (4.7GB - ideal for consumer GPUs)
ollama run deepseek-r1
# Larger 70B model (requires 24GB+ VRAM)
ollama run deepseek-r1:70b
# Actual DeepSeek-R1 (requires 336GB+ VRAM for 4-bit quantization)
ollama run deepseek-r1:671b
为了获得更好的交互体验,可以部署 Open Web UI。确保你的机器上安装了 Docker,然后通过在终端上运行来安装:
docker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:main
访问 http://localhost:3000 并选择 deepseek-r1:latest。所有数据都保留在你的机器上 - 没有云跟踪或数据泄露。
让我们尝试让模型创建一个贪吃蛇游戏。模型执行了所有思路以获得最佳响应。确实,它所花费的时间可能较长,但至少我们得到了模型更高效的响应。
它做得很不错,但花了将近 3 分钟!这体现了长链推理带来的思考时间成本,但在复杂任务中这是值得的。
有两种集成方法。第一种是使用 DeepSeek-R1 本地部署(如上一节所示),第二种是使用 DeepSeek 服务器的云 API(可用于生产环境)。
使用你的 Ollama 实例作为 OpenAI 兼容端点。这种方式数据不出本地,安全性高。
import openai
# Connect to your local Ollama instance
client = openai.Client(
base_url="http://localhost:11434/v1",
api_key="ollama" # Authentication-free private access
)
response = client.chat.completions.create(
model="deepseek-r1:XXb", # change the "XX" by the distilled model you choose
messages=[{"role": "user", "content": "Explain blockchain security"}],
temperature=0.7, # Controls creativity vs precision
stream=True
)
for chunk in response:
if chunk.choices[0].delta.content:
print(chunk.choices[0].delta.content, end="", flush=True)
注意:在生产环境中,建议对本地 API 进行鉴权保护,避免未授权访问。
对于可扩展的应用程序,请使用 DeepSeek 的官方 API。你可以在此处通过创建帐户并生成一个密钥来获取 DeepSeek API 密钥。
import openai
from dotenv import load_dotenv
import os
load_dotenv()
client = openai.OpenAI(
base_url="https://api.deepseek.com/v1",
api_key=os.getenv("DEEPSEEK_API_KEY")
)
response = client.chat.completions.create(
model="deepseek-reasoner",
messages=[{"role": "user", "content": "Write web scraping code with error handling"}],
max_tokens=1000, # Limit costs for long responses
temperature=0.7
)
print(response.choices[0].message.content)
安全建议:切勿将 API Key 硬编码在代码中,应使用环境变量管理敏感信息。
DeepSeek R1 的发布标志着国产 AI 技术的又一次重大突破。其强大的推理能力、开源生态以及高性价比的 API 服务,为全球开发者和企业提供了全新的选择。随着 R1 及其蒸馏版本的广泛应用,AI 技术的普及与创新将迎来新的高潮。
在实际应用中,开发者应根据自身需求选择合适的模型规模(蒸馏版 vs 原版)和部署方式(本地 vs 云端)。对于注重数据隐私的场景,本地部署是首选;对于需要高并发和易扩展的场景,云端 API 更为合适。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online