Ollama 部署 DeepSeek-R1 本地大模型,配合 Open-WebUI 与 RagFlow 私有知识库
在本地通过 Ollama 部署 DeepSeek-R1 大模型,结合 Open-WebUI 提供交互界面,利用 RagFlow 构建私有知识库。步骤包括安装 Docker、配置镜像源、拉取模型、运行服务及创建知识库流程,支持离线或内网环境下的 AI 应用搭建与文档问答。

在本地通过 Ollama 部署 DeepSeek-R1 大模型,结合 Open-WebUI 提供交互界面,利用 RagFlow 构建私有知识库。步骤包括安装 Docker、配置镜像源、拉取模型、运行服务及创建知识库流程,支持离线或内网环境下的 AI 应用搭建与文档问答。

DeepSeek(深度求索)是一家专注于实现通用人工智能(AGI)的中国科技公司,致力于通过技术探索与创新,推动智能技术的广泛应用。
我的电脑配置可以跑 7b 和 14b 版本。
Ollama 是一个开源的 AI 推理框架,专注于模型压缩和部署。它的目标是帮助用户在本地或边缘设备上高效运行大型语言模型(LLM)。
国内下载:Ollama 下载
运行模型:
ollama run deepseek-r1:1.5b
启动推理服务:
ollama serve --port 11434
下载模型(以 DeepSeek-R 系列为例):
ollama pull deepseek-r1:1.5b
打开 cmd 控制台,输入 ollama 可以看到帮助命令。
OLLAMA_MODELS 是修改 OLLAMA 下载的模型存储位置,默认是在 C 盘。
官网地址:Docker Desktop
"registry-mirrors": [
"https://${阿里云的}.mirror.aliyuncs.com",
"https://docker.m.daocloud.io",
"https://mirror.baidubce.com",
"https://docker.nju.edu.cn",
"https://mirror.iscas.ac.cn"
]
搜索 open-webui 并安装。
在容器中运行 open-webui,然后浏览器输入 http://localhost:3000。
进入设置,配置 Ollama 地址。配置好后,保存,界面就会显示 Ollama 中已下载好的模型了。
RagFlow 是一个基于大语言模型的流程自动化工具,旨在帮助用户通过自然语言处理(NLP)技术来自动化和优化工作流程。
git clone https://github.com/infiniflow/ragflow.git
docker compose -f docker-compose-CN.yml up -d
浏览器上输入:http://localhost,第一个注册的账号就是管理员,登录成功。
点击头像,进入模型供应商配置,选择下面列表中的 Ollama,然后进行模型配置。模型名称就是 Ollama 中下载的模型名称。
解析方法改成 General,其他默认即可。
新增本地文件,执行解析,等待解析完成。
切换到聊天页,新建助理,选择知识库。切换到模型设置,调整一下最大 token 数。新建聊天,开始对话。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
暂无推荐文章,稍后可再来查看。
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online