LightRAG 本地部署与 WebUI 实战指南
LightRAG 是一个旨在实现简单、快速检索增强生成(RAG)的框架。它通过从文档中构建知识图谱来增强传统 RAG,能够更深入、更具上下文感知地理解源材料,超越了简单的基于关键词的检索,实现了一种利用广泛上下文和具体细节的双层检索范式。
核心架构与技术栈
LightRAG 配备了一系列功能,旨在提供一个灵活、强大且可观测的 RAG 系统。
1. 模型选型建议
-
大型语言模型 (LLM)
- 参数:建议使用至少有 320 亿参数的模型。
- 上下文长度:至少需要 32KB;建议使用 64KB 以获得最佳性能。
- 能力:在文档索引阶段,避免使用主要专注于推理的模型。在查询阶段,建议使用比索引阶段更强大的模型以获得更好的结果。
-
嵌入模型 (Embedding Model)
- 一个高性能、多语言的 embedding 模型至关重要。推荐的模型包括
BAAI/bge-m3和text-embedding-3-large。 - 一致性:文档索引和查询必须使用相同的 embedding 模型。如果更换模型,您必须清除现有的向量数据,以便 LightRAG 使用正确的维度重新生成。
- 一个高性能、多语言的 embedding 模型至关重要。推荐的模型包括
-
重排序器模型 (Reranker Model)
- 集成一个 reranker 模型可以显著提高检索性能,尤其是在使用'mix'查询模式时。
- 推荐模型:
BAAI/bge-reranker-v2-m3或来自 Jina 等提供商的商业产品。 - 机制:将用户查询与候选文档输入同一模型(如 Cross-Encoder),输出 0-1 的相似度分数,按分数对文档降序排列,优先保留最相关片段,过滤冗余信息。
环境配置与部署
我们基于 Python 3.10.5、PyCharm 和 Windows 11 进行演示。以下是完整的部署流程。
1. 准备开发环境
首先配置好 Python 环境,然后打开 LightRAG 源代码目录。在 PyCharm 终端中使用 PowerShell 安装 Bun(前端依赖管理工具):
powershell -c "irm bun.sh/install.ps1|iex"
2. 安装服务与构建前端
接下来安装 LightRAG 服务器、Core 并运行服务。注意这里需要同时安装 API 扩展包。
pip install "lightrag-hku[api]"
pip install lightrag-hku
# 构建前端代码
cd lightrag_webui
bun install --frozen-lockfile
bun run build
cd ..
# 配置环境变量
cp env.example .env
3. 配置模型参数
.env 文件是核心配置项,我们需要在这里填入你的 LLM 和 Embedding 模型的访问参数。以阿里云 DashScope 为例:
### 184 行:LLM Configuration - aliyuncs【qwen3-max】
LLM_BINDING=openai
LLM_MODEL=qwen3-max
=https://dashscope.aliyuncs.com/compatible-mode/v1
=sk-XXXXXXXXXXXXXXX
=openai
=text-embedding-v1
=
=
=
=https://dashscope.aliyuncs.com/compatible-mode/v1
=sk-XXXXXXXXXXXXXXX




