RAG 实践指南:使用 Ollama 与 RagFlow 构建本地知识库
前言
本文介绍利用 Ollama+RagFlow 实现本地知识库的另一种方式,其中 Ollama 中使用的模型为 Qwen2。
回顾一下 RAG 常见的应用架构:

RagFlow 的安装和部署
前置条件
- CPU >= 4 核
- RAM >= 16 GB
- Disk >= 50 GB
- Docker >= 24.0.0 & Docker Compose >= v2.26.1
安装步骤
克隆仓库:
git clone https://github.com/infiniflow/ragflow.git
进入 docker 文件夹,利用提前编译好的 Docker 镜像启动服务器:
cd ragflow/docker
chmod +x ./entrypoint.sh
docker compose -f docker-compose-CN.yml up -d
注意 Docker 下载的镜像较大,需预留足够存储空间(约 10GB)。
服务器启动成功后确认状态:
docker logs -f ragflow-server

安装完成后,访问端口 80 进行注册登录。默认地址通常为 http://localhost:80。

配置 Ollama 连接大模型
点击右上角头像,选择模型提供商进行配置。
若连接本地已安装的 Ollama,需先以服务器模式启动:
ollama serve
在 RagFlow 中配置模型时,由于 RagFlow 运行在 Docker 容器中,请求本地 Ollama 地址需注意网络连通性,通常需使用宿主机 IP 或特定网络配置。








