如何在本地部署 DeepSeek
你是否想在自己的电脑上运行 AI 助手,而不用担心网络延迟和隐私问题?本文将手把手教你如何本地化部署 DeepSeek。
第一步:搭建基础环境(安装 Ollama)
Ollama 是一个轻量级 AI 模型运行框架,支持多个开源模型,我们将用它来运行 DeepSeek。
1. 下载 Ollama
根据你的操作系统选择安装包(Windows 选择 .exe,Mac 选择 .dmg)。
下载完成后,按照提示进行安装:
- Windows:双击安装包,一路'Next'即可
- Mac:拖拽 Ollama 图标到
Applications文件夹
2. 验证安装
安装完成后,打开终端(Windows 按 Win + R 输入 cmd,Mac 直接打开 Terminal),输入:
ollama list
如果终端显示 llama3 之类的模型名称,说明安装成功!
注意事项
- 确保系统已更新,避免兼容性问题
- 关闭杀毒软件,以防拦截安装
- 保持网络畅通,下载过程中可能需要 300MB 以上的数据
第二步:部署 DeepSeek 模型
DeepSeek 提供多个参数版本,我们建议:
- 普通用户:选择
8B版本,适合日常对话、写作等 - 高性能显卡用户(显存 16GB 以上):可选
16B版本,体验更强大性能
1. 获取并安装模型
打开 Ollama 模型库,搜索 deepseek-r1。
复制对应版本的安装命令,并在终端运行:
ollama run deepseek-r1:8b
(如果你选择 16B 版本,把 8b 替换为 16b)
首次运行时,系统会自动下载 5GB 左右的模型文件,耐心等待一下。
2. 测试模型是否正常运行
安装完成后,在终端输入:
说一句有趣的新年祝福
如果模型成功回应,说明部署无误!
第三步:安装可视化界面(Chatbox AI)
终端交互虽然好用,但如果你更喜欢类似 ChatGPT 那样的可视化界面,可以安装 Chatbox AI。
1. 下载 Chatbox
访问 Chatbox 官网下载对应系统的安装包,按照默认设置完成安装。
2. 连接本地模型
打开 Chatbox,进入 ⚙️ 设置。
在 模型设置 里选择:
- API 类型:Ollama API
- 模型名称:deepseek-r1:8b
点击 检查连接,如果状态正常,就可以开始愉快地使用啦!


