【AIGC】大模型面试高频考点19:常见的17种RAG方案
RAG技术全景解析:从基础分块到自适应多模态检索
近年来,随着大语言模型(LLM)的广泛应用,检索增强生成(Retrieval-Augmented Generation,RAG)系统逐渐成为连接私有知识库与智能问答的核心架构。RAG 不仅弥补了大模型在实时性与事实性上的不足,也通过多种技术路径不断演进,形成了丰富的方法体系。
本文基于一份内部技术评估表,系统梳理了当前主流的 RAG 技术路线,并对其核心思路、实现难度与应用场景进行解读。
一、基础分块与语义优化
1. Simple RAG(简单切块)
核心思路:将文档按固定长度切分为多个 chunk,直接用于检索。 切分策略包括:按字数切块、按分句切块、按分段切块
优点:实现简单,适合小规模项目或初步验证。
局限:容易割裂语义,导致上下文丢失。
示例:
回答用户的问题:“北京有什么著名的景点?”
评估结果: 0.3/1.0
2. Semantic Chunking(语义切块)
核心思路:依据句子或段落语义边界进行分块,避免断章取义,可以更好地保持信息的完整性和相关性。
适用场景:需理解上下文的任务,如问答、摘要生成。
示例:
评估结果: 0.2/1.0
3. Context Enriched Retrieval(上下文增强检索)
核心思路:在检索时引入更多上下文信息,提升 chunk 的相关性。 在检索过程中,除了返回最匹配的Chunk,还同时返回其前后的相邻chunk,以提供更丰富的上下文信息。
价值:显著提高检索准确率,是高质量 RAG 的基础模块。
示例:
评估结果: 0.6/1.0
4. Contextual Chunk Headers(上下文标题)
核心思路:为每个 chunk 添加描述性标题,提供语义线索。 此标题作为额外的元信息,在检索时可作为关键词或语义线索使用。
作用:增强模型对 chunk 内容的理解能力,提升匹配质量。
目的:
- 增强chunk的可检索性
- 提供更丰富的语义提示
- 提高检索系统的匹配准确率
示例:
评估结果: 0.5/1.0
二、检索优化与重排序
1. Document Augmentation(文档增强)
核心思路:自动补充文档中的关键信息,扩展知识表达方式。 在原始文档的基础上,自动生成与其内容相关的问题-答案对或潜在查询语句,并将这些“虚拟查询”作为额外的检索入口加入到知识库中。
效果:增加知识入口,提高命中率。
问题背景: 如何在用户提问方式多样、关键词不一致的情况下、仍能准确地找到相关知识?
目的:
- 提高系统对不同表达方式的鲁棒性
- 扩展检索入口,提高匹配准确率
- 增强模型对上下文的理解能力
示例:
评估结果: 0.8/1.0
2. Query Transformation(查询转换)
核心思路:对用户查询进行改写或扩展,增强语义表达。
优势:低成本、见效快,适用于语义模糊的查询。
目的:
- 提高检索器的召回率和准确率
- 增强模型对模糊提问、口语化表达的理解能力
- 拓展多种检索路径,应对不同表达方式。
示例:
评估结果: 0.5/1.0
3. Reranker(重排序)
核心思路:使用更精细的模型对初步检索结果重新打分排序。 在初步检索出Top-K个候选chunk后,使用更精细的语义模型对这些候选进行重新打分和排序,以提升最相关内容的排名。
定位:高质量 RAG 系统的标配模块,显著提升 Top-K 相关性。
目的:
- 提高最终召回内容的相关性
- 弥补向量相似度排序的局限性
- 增强问答系统的准确率和用户体验
示例:
评估结果: 0.7/1.0
4. RSE(Re-ranking with Semantic Expansion)
核心思路:通过扩展上下文窗口,处理跨 chunk 的复杂问题。 是一种结合向量检索、语义相似度分析与上下文连贯性判断的检索增强技术,不仅关注单个Chunk的相关性,还通过“向上查找”机制,寻找与其语义连贯的相邻片段,形成更完整的上下文。
适用场景:需多段信息联合推理的任务。、
核心思想:
- 相关信息可能跨越多个chunk
- 单一chunk可能不足以表达完整语义
- 利用上下文窗口进行语义扩展,提升整体匹配效果。
示例:
评估结果: 0.8/1.0
三、智能路由与自反思机制
1. Feedback Loop(反馈闭环)
核心思路:收集用户反馈并持续优化检索与生成过程。
价值:系统具备自我进化能力,适合长期运营场景。
目的:
- 提高问答系统的准确性和相关性
- 实现系统的自我进化能力
- 持续提升用户体验与满意度
示例:
评估结果: 0.7/1.0
2. Adaptive RAG(自适应检索增强生成)
核心思路:根据查询类型动态选择检索策略与知识源。 根据用户查询类型、意图或复杂程度,动态选择不同检索策略、模型配置和知识库来源。
评分:0.86(最高),适用于复杂、多变的业务场景。
核心思想:
- 查询不是单一类型的
- 检索不应“一刀切”
- 应根据不同场景,使用最合适的方法
示例:
评估结果: 0.86/1.0
3. Self RAG(自反思检索增强生成)
核心思路:模型自主判断检索内容的相关性,筛选高价值信息。 是一种具备“自反思”机制的RAG架构,它不仅依赖外部知识库进行信息检索,还能通过语言模型自身的判断能力,对检索结果进行筛选、评估、过滤,从而只使用最相关的片段来生成答案。
特点:具备“判断力”,减少噪声,提升生成准确性。
示例:
评估结果: 0.6/1.0
四、结构化与多源融合
1. Knowledge Graph(知识图谱)
核心思路:利用图结构建模实体与关系,支持深度推理。 通过实体(Entity)、关系(Relation)、属性(Attribute)三元组来表达现实世界中事物之间的语义联系。
适用任务:复杂问答、因果推断、关系查询。
示例:
评估结果: 0.78/1.0
2. Hierarchical Indices(层次化索引)
核心思路:结合小块的精准匹配与大块的上下文完整性。 将文本数据按不同粒度组织成“多级索引”的方式,先用大块进行初步检索,再用匹配的大块中进一步细化检索,从而实现精度与上下文之间的平衡。
核心思路:
- 小块用于精确匹配关键词
- 大块用于提供完整语境和扩展信息
- 通过“粗筛+细搜”两步法提升整体检索质量
优势:在精度与上下文之间取得平衡。
示例:
评估结果: 0.84/1.0
3. HyDE(假设文档嵌入)
核心思路:先由模型生成假设答案,再以其为查询进行检索。
核心思想:
- 原始查询可能模糊或表达不清
- 模型生成的答案更接近知识库中的表达形式
- 使用“假想答案”的向量去匹配知识库中真正的相关内容
适用场景:用户表达模糊、语义差距大的场景。
评估结果: 0.5/1.0
4. Fusion(融合检索)
核心思路:将多种检索方法(如向量检索、关键词检索、布尔检索等)的结果进行加权融合,利用不同方法的互补优势,减少漏检,提高整体的召回率和相关性。
核心思想:
- 没有一种检索方式是“万能”的
- 多种方法联合使用可以显著减少“漏检”
- 融合打分机制可更精确地排序结果
效果:兼顾语义与字面匹配,提升召回率。
示例:
评估结果: 0.83/1.0
五、纠错与多模态扩展
1. CRAG(纠错型 RAG)
核心思路:对检索结果进行可信度评估、动态筛选与主动修正,它不依赖于原始检索内容生成答案,还能:识别不可靠信息(如错误事实、过时数据)、主动触发纠错机制(如二次检索或知识修正)、基于修正后的上下文生成高准确性答案。
核心思想:
- 并非所有检索结果值得信任
- 模型需要具备“评估-纠错-生成”闭环能力(而非过滤)
- 生成前必须消除错误,而非事后补救。
价值:显著提升生成内容的准确性与系统可信度。
评估结果: 0.824/1.0
2. Multi-Model RAG(多模态检索增强生成)
核心思路:将图像、表格等非文本内容转化为文本描述,统一检索。 通过提取、理解并关联文档中的多模态元素(文字+图片),实现更加完整、更直观的知识服务。
核心思想:
- “图文一体”:PDF中的图像不是装饰,而是关键知识载体。
- “跨模态理解”:建立文本描述与图像内容的语义关联
- “视觉增强生成”:在答案中智能融合文字说明与图像引用
应用场景:PDF、报告等多模态文档的理解与问答。
评估结果: 0.79/1.0
六、总结与展望
从简单的固定分块到自适应的多模态检索,RAG 技术正在向更智能、更鲁棒、更可信的方向发展。未来,我们有望看到更多融合推理、交互学习与跨模态理解的 RAG 系统,成为企业知识管理与人机协作的核心基础设施。