前言
随着大语言模型技术的快速发展,数据隐私与离线使用需求日益增长。将 DeepSeek R1 等开源模型部署到本地环境,不仅能确保数据不出内网,还能避免公共 API 的调用限制与费用。本文将详细介绍两种主流的本地部署方案:基于 Ollama 的轻量级方案与基于 Docker 的容器化方案。
本文介绍了在本地离线环境下部署 DeepSeek R1 模型的两种主流方案。第一种基于 Ollama 命令行工具配合 Chatbox 图形界面,适合快速上手;第二种基于 Docker 容器化部署 Open WebUI,支持语音输入及多模态交互。教程涵盖环境准备、安装步骤、配置方法及常见问题排查,帮助用户实现数据隐私保护与低成本使用大模型能力。

随着大语言模型技术的快速发展,数据隐私与离线使用需求日益增长。将 DeepSeek R1 等开源模型部署到本地环境,不仅能确保数据不出内网,还能避免公共 API 的调用限制与费用。本文将详细介绍两种主流的本地部署方案:基于 Ollama 的轻量级方案与基于 Docker 的容器化方案。
在开始部署之前,请确保您的计算机满足以下基础要求:
此方案适合追求快速上手、无需复杂配置的用户。Ollama 提供了命令行接口,Chatbox 则提供了友好的图形界面。
访问 Ollama 官网下载对应操作系统的安装包。安装完成后,系统托盘会出现羊驼图标,表示服务已启动。
打开终端(Terminal),输入以下命令拉取并运行 DeepSeek R1 模型:
ollama run deepseek-r1:7b
首次运行会自动下载模型权重,请耐心等待进度条完成。下载完成后,即可直接在终端进行对话测试。
为了获得更好的交互体验,推荐使用 Chatbox 客户端。
http://localhost:11434。若遇到连接问题,需检查防火墙设置或重启 Ollama 服务。Chatbox 支持自定义 System Prompt。您可以在设置中创建新的角色设定,例如'专业文案助手',通过注入特定的指令来优化模型的输出风格,使其更符合特定业务场景。
此方案适合需要多用户管理、语音输入及更高级功能的场景。Open WebUI 是一个功能强大的开源 Web 界面,支持多种后端模型。
前往 Docker 官网下载并安装 Docker Desktop。安装过程中保持默认设置,并确保 Docker 服务已启动。
Open WebUI 官方提供了 Docker Compose 或单行 Docker Run 命令。以下是标准的部署命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
该命令会创建一个名为 open-webui 的容器,并将数据持久化存储在本地的 open-webui 卷中。
http://localhost:3000。http://host.docker.internal:11434 以连接本地 Ollama 服务。通过上述两种方案,您可以灵活地在本地构建私有化的 AI 助手。Ollama 方案简洁高效,适合个人开发;Docker 方案功能丰富,适合团队协作。无论选择哪种方式,核心目标都是实现数据的自主可控与低成本的大模型应用落地。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online