DeepSeek-R1 本地部署指南
DeepSeek-R1 是一款开源的大语言模型。由于访问人数过多,在线服务经常反应迟缓。通过本地部署,可以在自己的电脑上随时使用,且无需联网即可运行。
DeepSeek-R1 是一款开源大模型,支持本地部署以解决在线访问延迟问题。基于 Ollama 工具在本地运行 DeepSeek-R1 的完整流程,涵盖软件安装、多版本模型拉取、命令行交互及 API 调用方法。同时提供了不同参数量版本的硬件配置建议,帮助用户在离线环境下高效使用大模型能力。

DeepSeek-R1 是一款开源的大语言模型。由于访问人数过多,在线服务经常反应迟缓。通过本地部署,可以在自己的电脑上随时使用,且无需联网即可运行。
本教程基于 Ollama 工具进行部署。Ollama 是一个用于在本地运行大模型的轻量级工具,支持 Windows、macOS 和 Linux 系统。
Win + R 输入 cmd,Mac/Linux 下打开 Terminal)。ollama --version
如果显示版本号,则说明安装成功。Ollama 提供了多种版本的 DeepSeek-R1 模型,从 1.5B 到 70B 不等。不同版本基于不同的基座模型(如 Qwen、Llama 等)进行蒸馏或微调。
在命令行中执行以下命令拉取对应的模型。例如,拉取 1.5B 版本:
ollama run deepseek-r1:1.5b
其他版本命令如下:
| 模型版本 | 命令 |
|---|---|
| 1.5B (Qwen) | ollama run deepseek-r1:1.5b |
| 7B (Qwen) | ollama run deepseek-r1:7b |
| 8B (Llama) | ollama run deepseek-r1:8b |
| 14B (Qwen) | ollama run deepseek-r1:14b |
| 32B (Qwen) | ollama run deepseek-r1:32b |
| 70B (Llama) | ollama run deepseek-r1:70b |
复制上述命令到终端并按回车键,系统将自动下载模型权重。首次运行可能需要较长时间,取决于网络速度和硬盘读写性能。
模型下载完成后,可以直接在命令行窗口中与模型对话。输入问题后,模型会直接返回回答。
若要退出当前会话,可输入 /bye 或按 Ctrl + C。
使用以下命令查看本地已下载的模型列表:
ollama list
如需释放磁盘空间,可以使用以下命令删除不需要的模型:
ollama rm deepseek-r1:1.5b
Ollama 默认启动一个本地 API 服务(端口 11434)。可以通过 HTTP 请求与模型交互,方便集成到其他应用中。
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:1.5b",
"prompt": "你好,请介绍一下你自己"
}'
import requests
response = requests.post(
'http://localhost:11434/api/generate',
json={
'model': 'deepseek-r1:1.5b',
'prompt': '你好,请介绍一下你自己'
}
)
print(response.json()['response'])
# Windows
Get-Service Ollama
# Linux/Mac
systemctl status ollama
通过以上步骤,您可以成功在本地部署并使用 DeepSeek-R1 模型,享受离线 AI 服务的便利。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online