DeepSeek R1 本地化部署与 Web 端访问及知识库搭建指南
本文介绍如何在本地计算机部署 DeepSeek R1 大模型,实现数据隐私保护。通过 Ollama 进行模型运行,结合 Chatbox 网页端提升交互体验,并利用 Page Assist 插件搭建本地私有知识库。涵盖环境配置、模型选择、RAG 应用及常见问题排查,适合希望离线使用 AI 技术的用户。

本文介绍如何在本地计算机部署 DeepSeek R1 大模型,实现数据隐私保护。通过 Ollama 进行模型运行,结合 Chatbox 网页端提升交互体验,并利用 Page Assist 插件搭建本地私有知识库。涵盖环境配置、模型选择、RAG 应用及常见问题排查,适合希望离线使用 AI 技术的用户。

随着大模型技术的普及,数据隐私安全成为企业和个人用户关注的重点。本文将详细介绍如何在本地计算机上部署 DeepSeek R1 大模型,实现数据不出本地的安全交互,并通过 Chatbox 和 Page Assist 插件构建 Web 端访问界面及个人私有知识库。
Ollama 是一个用于运行大型语言模型的开源工具,支持 macOS、Linux 和 Windows 系统。它简化了模型的下载和管理过程。
根据操作系统选择对应的安装方式:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,确保服务已启动。可以通过检查后台进程或尝试运行命令来验证。
Ollama 支持多种模型版本。对于 DeepSeek R1,官方提供了不同参数量级的版本,用户需根据硬件配置进行选择。
ollama run deepseek-r1:7bollama run deepseek-r1:1.5b硬件建议:
执行拉取命令后,Ollama 会自动下载模型文件到本地目录。首次运行会显示下载进度。
安装成功后,可以在终端输入指令进行测试:
ollama run deepseek-r1:1.5b
输入 你是谁? 等基础问题,若收到模型回复,则表明部署成功。
sudo 权限运行相关命令。本地命令行交互不够直观,Chatbox AI 提供了一款跨平台的客户端应用,支持通过 Web 界面调用本地 Ollama 服务,提升用户体验。
默认情况下,Ollama 服务仅监听本地回环地址(localhost),外部应用无法访问。为了允许 Chatbox 连接,需设置以下环境变量:
OLLAMA_HOST:设置为 0.0.0.0,允许所有 IP 访问。OLLAMA_ORIGINS:设置为 *,允许所有来源请求。Windows 配置步骤:
OLLAMA_HOST,值:0.0.0.0OLLAMA_ORIGINS,值:*Linux/Mac 配置步骤:
可在 /etc/environment 文件中添加上述变量,或使用 systemd 服务配置。
Chatbox 支持自定义助手(GPTs)。用户可以创建特定角色的智能体,例如'夸夸机'、'代码审查员'等,利用本地模型的能力增强特定场景的交互体验。
通过浏览器插件 Page Assist,可以直接在浏览环境中调用本地模型,并支持基于本地文档的检索增强生成(RAG),实现私有知识库问答。
~/.ollama/models 目录,以便快速恢复环境。通过 Ollama 部署 DeepSeek R1,结合 Chatbox 和 Page Assist,用户可以在完全离线的情况下享受企业级的大模型能力。这不仅解决了数据隐私顾虑,还降低了长期使用的成本。对于开发者而言,掌握本地部署技能是深入理解大模型架构的重要一步。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online