Ollama 本地部署 DeepSeek-R1-Distill-Llama-8B 实战
想在本地快速体验 DeepSeek 最新推理模型的能力,又不想被复杂的部署流程劝退?这篇指南将带你用最简单的方法,在 10 分钟内完成 DeepSeek-R1-Distill-Llama-8B 的部署和测试。
这个模型是 DeepSeek 最新发布的推理模型系列中的轻量级版本,专门针对数学推理、代码生成和逻辑分析任务进行了优化。通过 Ollama 工具,部署过程变得像安装普通软件一样简单,无需关心复杂的依赖关系和环境配置。
环境准备:安装 Ollama
Ollama 是一个专为本地运行大语言模型设计的工具,支持 Windows、macOS、Linux 三大主流操作系统。
安装步骤
根据你的操作系统选择对应的安装方法:
Windows 用户
- 访问 Ollama 官网下载安装包。
- 双击运行安装程序。
- 安装完成后,在开始菜单找到 Ollama 并运行。
macOS 用户
# 使用 Homebrew 安装
brew install ollama
# 或者下载 dmg 安装包
Linux 用户
# 一键安装脚本
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,打开终端或命令提示符,输入以下命令检查是否安装成功:
ollama --version
如果能看到版本号,说明安装成功了。
硬件要求检查
虽然 DeepSeek-R1-Distill-Llama-8B 是轻量级模型,但还是需要一定的硬件资源:
- 最低配置:内存 16GB 以上,存储空间 10GB 可用空间,有独立显卡更好(无独显 CPU 也能跑,速度稍慢)。
- 推荐配置:内存 32GB,存储空间 20GB 可用空间,NVIDIA 显卡且显存 8GB 以上。
如果你不确定自己的配置,可以在终端运行系统信息查看命令:
# Windows 用户
systeminfo
# macOS 用户
system_profiler SPHardwareDataType
# Linux 用户
free -h
lspci | grep -i vga
模型部署:三步搞定
拉取模型
这是最简单的一步,只需要一条命令:
ollama pull deepseek-r1:8b
这条命令会从 Ollama 的模型库中下载 DeepSeek-R1-Distill-Llama-8B 模型。下载时间取决于你的网络速度,模型大小约 5GB 左右。
下载完成后,可以用以下命令查看已安装的模型:
ollama list
你应该能看到类似这样的输出:
NAME ID SIZE MODIFIED
deepseek-r1:8b xxxxxxxxxx 4.7 GB 2 minutes ago
运行模型
模型下载完成后,就可以运行了:
ollama run deepseek-r1:8b

