LightRAG 本地部署与 WebUI 实战指南
LightRAG 是一个旨在实现简单、快速检索增强生成(RAG)的框架。它通过从文档中构建知识图谱来增强传统 RAG,能够更深入、更具上下文感知地理解源材料,超越了简单的基于关键词的检索,实现了一种利用广泛上下文和具体细节的双层检索范式。
核心架构与技术栈
LightRAG 配备了一系列功能,旨在提供一个灵活、强大且可观测的 RAG 系统。
1. 模型配置建议
-
大型语言模型 (LLM)
- 参数:建议使用至少有 320 亿参数的模型。
- 上下文长度:至少需要 32KB;建议使用 64KB 以获得最佳性能。
- 能力:在文档索引阶段,避免使用主要专注于推理的模型。在查询阶段,建议使用比索引阶段更强大的模型以获得更好的结果。
-
Embedding 模型
- 一个高性能、多语言的 embedding 模型至关重要。推荐的模型包括
BAAI/bge-m3和text-embedding-3-large。 - 一致性至关重要:文档索引和查询必须使用相同的 embedding 模型。如果更换模型,您必须清除现有的向量数据,以便 LightRAG 使用正确的维度重新生成。
- 一个高性能、多语言的 embedding 模型至关重要。推荐的模型包括
-
重排序器模型 (Reranker model)
- 集成一个 reranker 模型可以显著提高检索性能,尤其是在使用'mix'查询模式时。
- 推荐的模型包括
BAAI/bge-reranker-v2-m3或来自 Jina 等提供商的商业产品。 - 机制:将用户查询与候选文档输入同一模型(如 Cross-Encoder),输出 0-1 的相似度分数,按分数对文档降序排列,优先保留最相关片段。
环境部署步骤
我们使用 Python 3.10.5 配合 PyCharm 进行开发,目标平台为 Windows 11。
1. 配置 Python 环境与安装 Bun
首先确保 Python 环境已就绪。接着需要在终端中安装 Bun,这是前端构建所需的工具。
powershell -c "irm bun.sh/install.ps1|iex"
2. 安装服务器与 Core
接下来安装 LightRAG 的核心依赖并构建前端代码。
pip install "lightrag-hku[api]"
pip install lightrag-hku
# 构建前端代码
cd lightrag_webui
bun install --frozen-lockfile
bun run build
cd ..
# 配置环境变量
cp env.example .env
3. 配置 LLM 与 Embedding 参数
修改 .env 文件以适配您的模型服务。注意 API Key 的安全管理。
### 184 行:LLM Configuration
LLM_BINDING=openai
LLM_MODEL=qwen3-max
LLM_BINDING_HOST=https://dashscope.aliyuncs.com/compatible-mode/v1
=sk-XXXXXXXXXXXXXXX
=openai
=text-embedding-v1
=
=
=
=https://dashscope.aliyuncs.com/compatible-mode/v1
=sk-XXXXXXXXXXXXXXX


