LightRAG应用一:[LightRAG & LightRAG WebUI]

LightRAG应用一:[LightRAG & LightRAG WebUI]

文章目录


前言

LightRAG webui本地部署、应用


一、LightRAG

          LightRAG,一个为实现简单快速的检索增强生成(Retrieval-Augmented Generation)而设计的框架。
          通过从文档中构建知识图谱来增强传统的检索增强生成(RAG),能够更深入、更具上下文感知地理解源材料,超越了简单的基于关键词的检索,实现了一种利用广泛上下文和具体细节的双层检索范式。

1.1 主要功能

          LightRAG 配备了一系列功能,旨在提供一个灵活、强大且可观测的 RAG 系统。

在这里插入图片描述

1.2 技术栈

  • 大型语言模型 (LLM)
    参数:建议使用至少有 320 亿参数的模型。
    上下文长度:至少需要 32KB 的上下文长度;建议使用 64KB 以获得最佳性能。
    能力:在文档索引阶段,避免使用主要专注于推理的模型。在查询阶段,建议使用比索引阶段更强大的模型以获得更好的结果。
  • [内容块]加强模型(Embedding model)
    一个高性能、多语言的 embedding 模型至关重要。推荐的模型包括 BAAI/bge-m3 和 text-embedding-3-large。
    一致性至关重要:文档索引和查询必须使用相同的 embedding 模型。如果更换模型,您必须清除现有的向量数据,以便 LightRAG 使用正确的维度重新生成。
  • 重排序器模型(Reranker model)
    集成一个 reranker 模型可以显著提高检索性能,尤其是在使用“mix”查询模式时。
    推荐的模型包括 BAAI/bge-reranker-v2-m3 或来自 Jina 等提供商的商业产品。
    Reranker 优化检索结果机制:
            ‌语义相关性评分‌:将用户查询与候选文档输入同一模型(如Cross-Encoder),输出0-1的相似度分数,基于上下文深度分析语义匹配度。‌
            结果重排序‌:按分数对文档降序排列,优先保留最相关片段,过滤冗余信息。‌

引用
          LightRAG
          README-zh
          *** LightRAG框架介绍 ***


二、部署

工具

  • python 3.10.5
  • PyCharm
  • LightRAG-1.4.9.10
  • Window11

1.PyCharm 配置、安装 bun

配置python 环境3.10.5 ,PyCharm 打开 LightRAG-1.4.9.10 源代码
PyCharm 终端p owershell 安装 bun powershell 命令

powershell -c "irm bun.sh/install.ps1|iex"
在这里插入图片描述

2.安装LightRAG服务器 、Core 和运行lightrag-server

 pip install "lightrag-hku[api]" pip install lightrag-hku # 构建前端代码 cd lightrag_webui bun install --frozen-lockfile bun run build cd ..# 配置 env 文件 cp env.example .env # 使用你的LLM和Embedding模型访问参数更新.env文件# 启动API-WebUI服务 lightrag-server 

.env文件修改LLM模型和Embedding模型

### 184行:LLM Configuration - aliyuncs【qwen3-max】 LLM_BINDING=openai LLM_MODEL=qwen3-max LLM_BINDING_HOST=https://dashscope.aliyuncs.com/compatible-mode/v1 LLM_BINDING_API_KEY=sk-XXXXXXXXXXXXXXX ......### OpenAI compatible embedding - aliyuncs【text-embedding-v1] EMBEDDING_BINDING=openai EMBEDDING_MODEL=text-embedding-v1 EMBEDDING_DIM=1536 ### 不同的embedding 模型嵌入向量的维度值不一样 EMBEDDING_SEND_DIM=false EMBEDDING_TOKEN_LIMIT=8192 EMBEDDING_BINDING_HOST=https://dashscope.aliyuncs.com/compatible-mode/v1 EMBEDDING_BINDING_API_KEY=sk-XXXXXXXXXXXXXXX 

3.WEBUI界面

webui首页         http://127.0.0.1:9621/webui/#/
Swagger UI       http://localhost:9621/docs
ReDoc               http://localhost:9621/redoc

所有服务器(LoLLMs、Ollama、OpenAI 和 Azure OpenAI)都为 RAG 功能提供相同的 REST API 端点。当 API 服务器运行时,访问:

3.1 文档管理

在这里插入图片描述


文档矢量化分 4 段:原始文档变成可检索的向量结构,大致会经过:

  1. 文档预处理 & 分块
  2. 文本块的向量化和存储
  3. 基于 LLM 从文本块中抽取实体与关系
  4. 为实体描述 / 关系描述生成向量,并存入向量库

生成的文件说明:
        文本块向量:对 chunk 内容做 embedding,存入 chunks 向量表(如 vdb_chunks.json)
        实体描述向量:对实体的文本描述做 embedding,存入 entities 向量表(vdb_entities.json)
        关系描述向量:对关系的文本描述做 embedding,存入 relationships 向量表(vdb_relationships.json)
        知识图谱:保存结构化实体与关系,如graph_chunk_entity_relation.graphml 等

在这里插入图片描述

附:上传的文件:常用命令.txt

1.创建分支提交到远程: # 切换到目标分支 git checkout prod_20241230chenjunok # 添加所有修改的文件到暂存区 git add . # 提交更改 git commit -m "release问题修复" # 推送到远程仓库 git push origin release_fix_chenjun 2.重置下拉代码: git pull origin V2.1_chenjun git fetch --all git reset --hard origin/V2.1 D:\companyProject\employeeResign 

3.2 知识图库

在这里插入图片描述

3.3 检索Retrieval

输入 “重置下拉代码", 检索 上传的文件:常用命令.txt 并 响应。

3.4 API管理

在这里插入图片描述

三、总结

        LightRAG 在构建 RAG 系统方面提供了相对完整的解决方案。相比传统的纯向量检索,它的核心特点是引入了知识图谱,能把非结构化文本组织成实体-关系网络,这种混合检索策略(语义向量+图谱关系)确实能让 LLM 获得更丰富的上下文信息。
        LightRAG 是一种基于 GraphRAG 的创新方法,结合了知识图谱的属性与基于嵌入的检索系统,使其既快速又高效,实现了 SOTA (最先进的技术方案)结果。它在多个基准测试中都优于 naive RAG 和 GraphRAG。

四、技术文献

传统 RAG 系统的局限性 Limitations of Traditional RAG Systems

lightrag framewok

1000 万份文档的检索策略:标准混合搜索 与 LightRAG 的比较?

传统 RAG

  • 存在显著局限性,包括依赖扁平的数据表示上下文意识不足,可能导致答案支离破碎,未能捕捉复杂的相互依赖关系
  • 当数据语料库增长时,会出现可扩展性低效,导致检索质量差
    解决办法:文本索引和检索过程中融入图结构,如 Microsoft GraphRAG

   Naive RAG Workflow

在这里插入图片描述

Microsoft GraphRAG:

        知识图谱是由一组节点组成的数据结构,这些节点保留了不同实体之间存在于不同数据点之间的关系。结构化知识图谱使 GraphRAG(Edge 等人)能够通过连接点或对比信息片段,在多跳推理中表现出色。

GraphRAG 流水线 涉及索引和查询,即:

1. Indexing – GraphRAG 索引
        第一阶段 : 知识图谱(KG)创建:GraphRAG 依赖于精心设计的提示词prompt和多部分的采集检定,使用 LLM 从源文档中提取实体和关系,构建增量结构化的 KG。
        第二阶段 : 语义聚类:基于节点连接密度和可扩展性,应用莱顿算法通过将密切相关的节点分组为层级簇来发现模块化群体。群体划分用于将图索引划分为元素组(节点、边、协变量),LLM 可以在索引和查询时并行汇总这些元素,通过关注高度相关的群落而非整个图,高效地减少搜索空间。利用大型语言模型,这些社区通过自下而上的方法进行总结,作为描述符,完全覆盖了图索引。

2. Querying – GraphRAG 查询
        查询阶段,当用户提出问题时,查询中的实体和关系会被识别出来用于 QFS(Query-Focused Summarization查询相关的摘要)。通过比较问题与图索引之间的这些元素,可以识别出最相关的社区。
        然后这些社区总结会被随机洗牌,LLM 生成不同社区层级 (本地或全球层面)的中间回复,并匹配 0 到 100 的帮助度评分。该分数表明生成答案与用户查询的相关性。最终的全局答案采用多阶段地图缩减法生成,将中间部分反应汇总,依据帮助度评分作为 LLM 的上下文,按顺序递减排序。

3. GraphRAG 的缺点

  • GraphRAG 运行起来通常非常慢 ,因为它需要多个 LLM API 调用,可能会遇到速率限制。
  • 非常昂贵 。基于测试的网络社区显示,使用 GPT4时,索引简单书籍《狄更斯的圣诞颂歌》可能花费 6-7 美元,且有 3.2 万字 。
  • 要将新数据纳入现有图索引,我们也需要重建整个 KG 的旧数据,这是一种低效的方法。
  • 没有对重复元素进行显式的去重步骤,导致图索引噪声较大。

尽管 GraphRAG 看起来很有前景,但由于运营成本和计算复杂性,它并不是一个高效的解决方案。

LightRAG

一个简单、快速且高效的图 x RAG。LightRAG 通过将文档分割成更小、更易管理的块块 Di 来增强检索过程。 这种分块策略使得快速识别相关内容,无需逐一浏览整个文档。 

LightRAG 与 NaiveRAG 和 GraphRAG 有何不同?

全面的信息检索,提供多元答案。
高效且低成本的检索
快速适应数据,并以最小的重新索引方式更新数据。

LightRAG 解决 GraphRAG 的两个主要痛点?

通过比社区穿越更好的方法,减少索引和响应时间。 通过增量更新算法,只更新特定元素实例,轻松适应新数据。 

LightRAG 特点

1.基于图的文本索引

       索引阶段,LightRAG 处理原始文本文档以构建一个结构化且可查询的知识图谱。
       LightRAG 通过将文档分割成更小、更易管理的部分,增强了检索系统。这种策略允许快速识别并访问相关信息,而无需分析整份文件。接下来,我们利用大型语言模型识别和提取各种实体(例如名称、日期、地点和事件)以及它们之间的关系。通过该过程收集的信息将用于创建一个全面的知识图谱,突出整个文档集合之间的联系和洞见。
       基于图的文本索引范式中使用的函数描述如下:
1.1 提取实体和关系 R()
       大型语言模型 (LLM) 分析这些文本块,以识别关键实体(如人物、地点或概念)及其之间的关系(边)。例如,它可以从文本中提取“心脏病专家”和“心脏病”等实体,以及“心脏病专家诊断心脏病”等关系:“心脏病专家评估症状以识别潜在心脏问题。”为了提高效率,原始文本被分割成多个区块。

1.2 用于键值对生成 P()的 LLM 分析
       采用 LLM 赋能的分析函数为每个实体节点和关系边生成文本键值对。每个索引键是一个单词或短语,便于高效检索,而对应的值则是一个文本段落,总结了外部数据中的相关片段,以辅助文本生成。实体使用其名称作为唯一的索引键,而关系则可能拥有多个索引键,这些索引键源自 LLM 增强,包含来自连接实体的全局主题。

1.3去重以优化图作 D(.)
       去重函数,识别并合并原始文本不同段的相同实体和关系。这一过程通过最小化图的大小,有效减少了图作的开销,从而实现更高效的数据处理。

2.双重-层级检索范式-Dual-level Retrieval Paradigm

       为了从特定文档块及其复杂的相互依赖关系中获取最相关的上下文,LightRAG 提出在详细和抽象层面生成查询键。
       借助基于图的文本索引,LightRAG 流水线采用双层检索策略。该方法从 KG 内的多跳子图中识别低级和高级键,以回答多样化的查询。
       低层检索 Local Query Keywords: 主要关注检索特定实体及其相关属性或关系。该层查询注重细节,旨在提取图中特定节点或边的精确信息。针对单个节点和边缘的具体细致信息 ,以处理本地查询,如“什么是 Mechazilla?”在这个层面,它提供了详细的节点级洞察。
      高层检索Global Query Keywords :此层次涉及更广泛的主题和整体主题。该层查询汇总多个相关实体和关系的信息,提供对更高层概念和摘要的洞察,而非具体细节。 汇总来自不同文档的多个实体信息,回答需要更广泛主题或抽象思考的全球性问题,如“埃隆·马斯克的愿景如何促进其项目的可持续发展?”

在这里插入图片描述


双层检索查询过程:

  1. 查询分析: 分析用户查询,提取高层概念和底层关键词Keywords。
  2. 全局检索: 使用高层概念查询知识图谱,识别提供广泛上下文的关键关系和实体
  3. 局部检索: 使用底层关键词Keywords对文本块进行向量搜索,检索具体详细的信息。
  4. 响应生成: 将来自全局检索和局部检索的组合上下文进行综合,并传递给LLM,以生成一个全面而准确的答案。
3.LightRAG 如何利用知识图谱?

      对于给定的查询,LightRAG 的检索算法会同时提取本地 k(l) 和全局查询关键词 k(g)。 然后利用向量相似度,将相关实体匹配到带有低层密钥的本地查询和带有高级概念的全局查询关键词。
      通过在局部子图中收集一跳邻近节点,LightRAG 集成了额外的上下文层,提高了图索引中边结果的相关性。这种双层检索结构结合了关键词匹配与由构建的 KG 诱导的相关结构信息。

在这里插入图片描述


                                                                              检索实体关系与上下文
      检索的内容是 LLM 剖析阶段的输出,包含名称、实体和关系的描述以及原文的简短摘要。

4.Indexing 索引

索引流程图:

在这里插入图片描述

最后,构建的图索引保存为 graph_chunk_entity_relation.graphml ,我们稍后将利用它来可视化 Neo4j 中的 KG。

在这里插入图片描述

vdb_relationship.json 文件存储通过 ID 连接源实体和目标实体之间的关系,以表示连接。

在这里插入图片描述

vdb_entities.json 包含从文本块中提取的具有唯一 ID、实体名称等的实体向量嵌入。

在这里插入图片描述

kv_store_llm_response.json 存储由大型语言模型生成的关于实体及其关系的摘要。它采用缓存机制防止对相同 ID 进行冗余索引。 如用户输入query = “重置下拉代码命令”

在这里插入图片描述

kv_store_text_chunks.json 存储文档文本块及其相关的元数据,如 chunk_size(令牌)、实际内容、块索引、父文档 ID 等。

在这里插入图片描述
5.Incremental Indexing 增量索引

       索引新文件,自动更新 LLM 响应 kv_store_llm_response.json,包含任何新的实体和关系,且不会与现有数据冲突或重复。
       用户输入query = “redis启动过程”

在这里插入图片描述


LLM 响应, kv_store_llm_response.json文件添加增量节点信息:global:keywords:b3f3bc653c7ca6f095224a9e787b1965

{"global:keywords:323f0a4456f4753a60d7a65e23267c4e":{"return":"{\"high_level_keywords\": [\"Code reset\", \"Dropdown functionality\"], \"low_level_keywords\": [\"\\u91cd\\u7f6e\\u4e0b\\u62c9\\u4ee3\\u7801\\u547d\\u4ee4\"]}","cache_type":"keywords","chunk_id":null,"original_prompt":"重置下拉代码命令","queryparam":{"mode":"global","response_type":"Multiple Paragraphs","top_k":40,"chunk_top_k":20,"max_entity_tokens":6000,"max_relation_tokens":8000,"max_total_tokens":30000,"user_prompt":"","enable_rerank":true},"create_time":1767666062,"update_time":1767666062,"_id":"global:keywords:323f0a4456f4753a60d7a65e23267c4e"},"global:keywords:b3f3bc653c7ca6f095224a9e787b1965":{"return":"{\"high_level_keywords\": [\"Redis startup process\", \"Database initialization\", \"System boot sequence\"], \"low_level_keywords\": [\"Redis\", \"Configuration file\", \"Persistence setup\", \"Port binding\", \"Log initialization\"]}","cache_type":"keywords","chunk_id":null,"original_prompt":"redis启动过程","queryparam":{"mode":"global","response_type":"Multiple Paragraphs","top_k":40,"chunk_top_k":20,"max_entity_tokens":6000,"max_relation_tokens":8000,"max_total_tokens":30000,"user_prompt":"","enable_rerank":true},"create_time":1767752257,"update_time":1767752257,"_id":"global:keywords:b3f3bc653c7ca6f095224a9e787b1965"}}
6.Querying 查询

     根据查询模式(如naive、局部local、全局global和混合hybrid),相关关键词会从查询中提取,并与 KV 存储和向量数据库进行比较,以根据余弦相似度cosine检索候选实体和关系。
查询阶段在以程图:

在这里插入图片描述
  • Naive RAG – 传统RAG
# mode="naive"await rag.aquery("What are the top themes in this story?", param=QueryParam(mode="naive"))
  • Local Quer – LightRAG 本地查询
# mode="local"await rag.aquery("What are the top themes in this story?", param=QueryParam(mode="local"))
  • Global Query – LightRAG 全局查询
# mode="global"await rag.aquery("What are the top themes in this story?", param=QueryParam(mode="global"))
  • Hybrid Query – LightRAG 混合查询
# mode="hybrid"await rag.aquery("What are the top themes in this story?", param=QueryParam(mode="hybrid"))

代码参考:LightRAG-1.4.9.10\examples\lightrag_openai_demo.py

Read more

二叉树 二叉平衡树 B树 B+树

1 二叉树 这是最基础的树形结构。 * 定义:每个节点最多只有两个子节点(左子树和右子树)。 * 优点:比链表快,插入和查找的平均时间复杂度是 O(log N)。 缺点:不稳定。 在极端情况下(比如插入的数据本身已经是有序的,如 6,7,8,9),它会退化成一条链表。 此时查找时间复杂度会降到 O(N),性能急剧下降。 2 二叉平衡树 为了解决二叉树的退化问题,平衡树诞生了。 * 定义:在二叉树的基础上增加了约束:左右子树的高度差不能超过 1 * 工作原理:每次插入或删除数据时,如果平衡被破坏,它会通过旋转操作来自动调整结构,使其始终保持平衡。 * 优点:避免了二叉树退化成链表的问题,查找效率非常稳定,始终维持在 O(log N)。 * 缺点: 树太高:当数据量非常大时(例如几百万条)

By Ne0inhk
【线性表系列终篇】链表试炼:LeetCode Hot 100 经典题目实战解析

【线性表系列终篇】链表试炼:LeetCode Hot 100 经典题目实战解析

🏠个人主页:黎雁 🎬作者简介:C/C++/JAVA后端开发学习者 ❄️个人专栏:C语言、数据结构(C语言)、EasyX、游戏、规划、程序人生 ✨ 从来绝巘须孤往,万里同尘即玉京 文章目录 * 【线性表系列终篇】链表试炼:LeetCode Hot 100 经典题目实战解析 * 文章摘要 * 一、试炼前的准备:链表解题核心技巧回顾 * 二、试炼开始:经典题目实战解析 * 题目一:反转链表 (LeetCode 206) * 解法一:迭代(双指针) * 解法二:递归 * 题目二:环形链表 (LeetCode 141) * 解法:快慢指针(Floyd判圈算法) * 题目三:合并两个有序链表 (LeetCode 21)

By Ne0inhk

Min-Max(算法)归一化实例解析(内容由 AI 生成)

Min-Max归一化实例解析 Min-Max 归一化的简单理解是: 当前值 - 该维度的最小值) / 该维度的数值范围(最大值 - 最小值) 再简单理解,就是比例化,当前维度范围的比例化 Min-Max 归一化是数据预处理领域的标准算法,其核心价值是通过 “固定步骤 + 数学公式” 居然是一个算法。 “固定步骤 + 数学公式” 一、Min-Max归一化核心概念 Min-Max归一化(也称为离差标准化)是数据预处理中常用的线性归一化方法,其核心作用是将原始数据映射到指定的固定区间(最常用区间为[0,1],也可根据需求调整为[1,5]、[-1,1]等),消除不同特征间的量纲和尺度差异。 其核心公式为(以目标区间[0,1]为例): Xnorm=X−XminXmax−XminX_{norm} = \frac{X -

By Ne0inhk
【强化学习】演员评论家Actor-Critic算法(万字长文、附代码)

【强化学习】演员评论家Actor-Critic算法(万字长文、附代码)

📢本篇文章是博主强化学习(RL)领域学习时,用于个人学习、研究或者欣赏使用,并基于博主对相关等领域的一些理解而记录的学习摘录和笔记,若有不当和侵权之处,指出后将会立即改正,还望谅解。文章分类在👉强化学习专栏:        【强化学习】- 【单智能体强化学习】(7)---《演员评论家Actor-Critic算法》 演员评论家Actor-Critic算法 目录 Actor-Critic算法理解 1. 角色设定 2. 两者如何协作 3. 学习的核心 4. 为什么叫Actor-Critic? 生活中例子: Actor-Critic算法的背景与来源 1. 强化学习的起源 2. 策略梯度方法的局限性 3. Actor-Critic的提出 4. 历史发展与应用 Actor-Critic算法流程的推导 1. 强化学习的优化目标 2. 策略梯度定理 3. Critic:值函数估计 4. Actor:策略优化 5.

By Ne0inhk