Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

在LLM(大语言模型)时代,如何让AI既拥有通用能力又具备专业知识?RAG技术给出了完美答案。本文将基于Spring AI生态,深入剖析RAG的核心原理、实现细节与优化策略。

一、为什么需要RAG?

在深入了解RAG之前,我们需要先认识传统LLM的局限性:

缺陷类型具体表现RAG解决方案
知识截止模型知识有截止日期,无法获取最新信息实时检索外部知识库
幻觉问题自信地生成看似合理但实际错误的内容基于检索到的真实信息生成
上下文限制长文本处理能力有限只检索最相关的上下文片段
领域专业度通用模型缺乏垂直领域深度知识外挂专业领域知识库

比喻理解:如果将LLM比作一个"高中毕业生",那么:

  • Fine-tuning(微调) = 让他花7年时间去医学院学习,然后成为医生
  • RAG = 给他配备了一群专业主任医师作为顾问,遇到问题时先咨询专家再作答

二、RAG核心架构解析

2.1 整体工作流程

RAG的工作流程可以分为两大阶段:离线索引(Indexing)在线检索生成(Retrieval & Generation)

RAG论⽂:https://arxiv.org/pdf/2312.10997

在这里插入图片描述


中文版本:

在这里插入图片描述

详细流程说明

  1. 索引阶段(离线)
    • 文档加载:从PDF、Word、Excel等格式中提取文本
    • 文本分割(Chunking):将长文档切分为适当大小的片段
    • 向量化(Embedding):使用Embedding模型将文本转为向量
    • 存储:存入Milvus、Redis等向量数据库
  2. 检索阶段(在线)
    • 查询向量化:将用户问题转换为向量
    • 相似度匹配:在向量空间中查找最相似的Top-K个片段
    • 重排序(Reranking):(可选)对检索结果进行精排
  3. 生成阶段
    • 上下文组装:将检索到的片段作为"已知信息"注入Prompt
    • LLM推理:模型基于提供的上下文生成答案

2.2 关键技术:Embedding与相似度计算

什么是Embedding?
Embedding是将文本、图像等转换为高维向量的技术。语义相似的文本在向量空间中的距离更近。

例如,⼆维空间中的向量可以表示为 (𝑥,𝑦),即表示从原点 (0,0) 到点 (𝑥,𝑦) 的有向线段

在这里插入图片描述
  1. 将⽂本转成⼀组浮点数:每个下标 i ,对应⼀个维度
  2. 整个数组对应⼀个 n 维空间的⼀个点,即⽂本向量叫 Embeddings
  3. 向量之间可以计算距离,距离远近对应语义相似度⼤⼩
"这个多少钱" → [0.1, 0.5, -0.7, ..., 0.25] "这个什么价格" → [0.12, 0.4, -0.3, ..., 0.3] ← 距离近(语义相似) "给我报个价" → [0.15, 0.3, -0.2, ..., 0.3] ← 距离近(语义相似) "我想要这个" → [0.8, -0.1, 0.4, ..., -0.1] ← 距离远(语义不同) 
在这里插入图片描述

相似度计算方法

  1. 余弦相似度(Cosine Similarity)
    • 衡量两个向量方向的相似性,值域[-1, 1]
    • 适合文本语义匹配,不受向量长度影响
    • 公式: s i m i l a r i t y ( A , B ) = A ⋅ B ∥ A ∥ ∥ B ∥ similarity(A,B) = \frac{A \cdot B}{\|A\| \|B\|} similarity(A,B)=∥A∥∥B∥A⋅B​
  2. 欧氏距离(Euclidean Distance)
    • 衡量向量空间的实际距离
    • 公式: d ( A , B ) = ∑ i = 1 n ( a i − b i ) 2 d(A,B) = \sqrt{\sum_{i=1}^{n}(a_i - b_i)^2} d(A,B)=∑i=1n​(ai​−bi​)2​
    • 值越小越相似

具体选哪种方法?

  • 欧式距离:如果更侧重于向量的实际距离,且向量的尺度相对一致时,更适合用欧式距离

余弦相似度:更适用于比较文本、关键词向量等场景。因为这些场景向量的方向比他们的模长更重要

在这里插入图片描述

三、实战:基于Spring AI + Milvus实现RAG

3.1 环境准备

依赖配置(Maven)

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-openai</artifactId></dependency><dependency><groupId>io.milvus</groupId><artifactId>milvus-sdk-java</artifactId><version>2.2.10</version></dependency>

配置信息

# OpenAI配置(用于Embedding和Chat) spring.ai.openai.api-key=your-api-key spring.ai.openai.embedding.api-key=your-api-key spring.ai.openai.embedding.base-url=https://api.openai-hk.com # Milvus配置 milvus.host=localhost milvus.port=19530 

3.2 核心代码实现

步骤1:创建向量集合
publicvoidcreateCollection(){List<FieldType> fieldTypes =Arrays.asList(// 主键IDFieldType.newBuilder().withName("id").withDataType(DataType.Int64).withPrimaryKey(true).withAutoID(true).build(),// 向量字段(1536维,对应text-embedding-3-small)FieldType.newBuilder().withName("feature").withDataType(DataType.FloatVector).withDimension(1536).build(),// 原始文本FieldType.newBuilder().withName("instruction").withDataType(DataType.VarChar).withMaxLength(65535).build(),// 答案内容FieldType.newBuilder().withName("output").withDataType(DataType.VarChar).withMaxLength(65535).build());CreateCollectionParam createParam =CreateCollectionParam.newBuilder().withCollectionName("springai_rag").withFieldTypes(fieldTypes).build(); client.createCollection(createParam);// 创建IVF_FLAT索引,加速检索CreateIndexParam indexParam =CreateIndexParam.newBuilder().withCollectionName("springai_rag").withFieldName("feature").withIndexType(IndexType.IVF_FLAT).withMetricType(MetricType.L2).build(); client.createIndex(indexParam);}
步骤2:数据向量化与存储
@AutowiredprivateEmbeddingModel embeddingModel;publicvoidinsertData(List<FaqItem> items){for(FaqItem item : items){// 1. 文本向量化float[] embeddings = embeddingModel.embed(item.getInstruction());// 2. 构建插入参数List<InsertParam.Field> fields =newArrayList<>(); fields.add(newInsertParam.Field("feature",Collections.singletonList(embeddings))); fields.add(newInsertParam.Field("instruction",Collections.singletonList(item.getInstruction()))); fields.add(newInsertParam.Field("output",Collections.singletonList(item.getOutput())));// 3. 插入MilvusInsertParam insertParam =InsertParam.newBuilder().withCollectionName("springai_rag").withFields(fields).build(); client.insert(insertParam);}}
步骤3:RAG检索与生成
@TestvoidragTest(){String userQuestion ="预算8000元以内,适合深度学习的笔记本电脑推荐";// 1. 向量化查询float[] queryEmbedding = embeddingModel.embed(userQuestion);// 2. 向量检索Top-3SearchParam searchParam =SearchParam.newBuilder().withCollectionName("springai_rag").withMetricType(MetricType.L2).withTopK(3).withVectors(Collections.singletonList(queryEmbedding)).withVectorFieldName("feature").withOutFields(Arrays.asList("instruction","output")).build();SearchResults results = client.search(searchParam).getData();List<RowRecord> records =newSearchResultsWrapper(results).getRowRecords();// 3. 构建上下文StringBuilder context =newStringBuilder();for(RowRecordrecord: records){ context.append("Q: ").append(record.get("instruction")).append("\n"); context.append("A: ").append(record.get("output")).append("\n\n");}// 4. 构建增强PromptString enhancedPrompt =String.format(""" # 角色设定 你是资深数码产品顾问,擅长根据用户需求推荐笔记本电脑。 请严格基于以下商品库信息回答,不要推荐库中不存在的商品。 # 商品库信息(Top-3匹配结果): %s # 用户需求: %s # 回答要求: 1. 先分析用户需求(用途、预算、性能要求) 2. 从商品库中推荐1-2款最合适的,说明理由 3. 如果商品库中没有匹配项,请明确告知"暂无符合要求的商品" 4. 最后可简要补充选购建议(非强制) """, context, userQuestion);// 5. 调用LLM生成String answer = chatClient.prompt(enhancedPrompt).call().content();System.out.println(answer);}

四、RAG优化策略与痛点解决

4.1 文本分割的艺术(Chunking Strategy)

文本分割是影响RAG效果的关键因素,常用策略对比:

分割策略实现方式优点缺点适用场景
固定字符数每N个字符切分简单高效可能切断语义对上下文连续性要求不高的场景
滑动窗口固定大小+重叠部分保留上下文衔接数据冗余,存储增加需要连贯性的长文档
递归字符按标点优先级切分(先句号→逗号→空格)保持语义完整实现复杂专业文档、论文
基于语义使用NLP模型判断语义边界最优语义保留计算成本高高精度要求的知识库

最佳实践

  • 结合文档结构(Markdown标题、PDF段落)进行分层切分
  • chunk大小建议:256-512 tokens(根据embedding模型调整)
  • 设置适当的重叠(overlap)保持上下文连贯

4.2 检索优化的进阶技巧

1. 混合检索(Hybrid Search)
结合关键词检索(BM25)和向量检索,兼顾精确匹配和语义理解:

// 伪代码示例List<Document> keywordResults =keywordSearch(query);List<Document> vectorResults =vectorSearch(query);List<Document> hybridResults =rerank(merge(keywordResults, vectorResults));

2. 重排序(Reranking)
使用专门的交叉编码器(Cross-Encoder)模型对Top-K结果进行精排:

  • 先使用向量检索召回Top-20
  • 使用重排模型计算问题与文档的相关性分数
  • 取Top-3作为最终上下文

3. 查询重写(Query Rewriting)
对用户的模糊查询进行扩展和澄清:

  • 原查询:“这个多少钱?”
  • 重写后:“iPhone 15 Pro Max 256GB 官方售价是多少?”

4.3 RAG痛点与解决方案

基于《Seven Failure Points When Engineering a Retrieval Augmented Generation System》的总结:

痛点类别具体表现解决方案
Missing Content知识库中没有答案设置兜底回复;持续扩充知识库
Missed Top Ranked正确答案未进入Top-K调整similarity阈值;引入重排序
Not in Context检索到内容但与问题无关优化文本分割;提升向量模型质量
Wrong Format需要JSON但返回了文本Prompt中明确输出格式示例;使用结构化输出
Incomplete答案只覆盖问题部分引导模型逐步思考(CoT);拆分复杂问题
Not Extracted上下文中有答案但模型未提取优化Prompt模板;增强上下文标识

五、RAG效果评估(RAGAS)

RAGAS(Retrieval-Augmented Generation Assessment)是评估RAG系统的标准框架,核心指标:

5.1 检索质量指标

  1. Context Relevancy(上下文相关性)
    • 衡量检索到的上下文与问题的相关程度
    • 计算公式:相关句子数 / 总句子数
  2. Context Recall(上下文召回率)
    • 衡量检索结果是否包含回答问题所需的所有信息
    • 基于标准答案(Ground Truth)进行判断

5.2 生成质量指标

  1. Faithfulness(忠实性)
    • 评估生成答案是否基于检索到的上下文,而非幻觉
    • 值越高,模型"编造"内容越少
  2. Answer Relevancy(答案相关性)
    • 衡量答案与问题的直接相关程度

评估数据集格式

{"question":"预算8000元以内,适合深度学习的笔记本电脑推荐","contexts":["机械革命翼龙15 Pro配备RTX4060显卡,支持CUDA加速,售价7499元","联想拯救者Y7000P 2024款搭载i7-14650HX和RTX4060,售价8499元超出预算","轻薄本不适合深度学习,缺乏独立显卡"],"answer":"推荐机械革命翼龙15 Pro,配备RTX4060显卡支持CUDA加速,价格7499元符合预算","ground_truths":["机械革命翼龙15 Pro,RTX4060,7499元"]}

六、总结与展望

RAG vs Fine-tuning 选择指南

选择RAG的场景

  • 需要实时更新的知识(如新闻、股价)
  • 数据量庞大且频繁变动
  • 需要解释性强的应用场景(可溯源到具体文档)
  • 预算有限,无法承担微调成本

选择Fine-tuning的场景

  • 需要改变模型行为风格(如特定语气、格式)
  • 领域知识非常固定且通用模型表现极差
  • 对延迟敏感(RAG需要额外检索时间)

未来趋势

  1. Agentic RAG:结合ReAct模式,让模型自主决定何时检索、检索什么
  2. 多模态RAG:支持图片、音频、视频的检索增强
  3. Graph RAG:结合知识图谱,处理复杂的多跳推理问题

参考资料

  • Spring AI官方文档
  • 《Seven Failure Points When Engineering a Retrieval Augmented Generation System》
  • Milvus向量数据库最佳实践

通过本文,你应该已经掌握了RAG技术的完整链路:从文档切分、向量化存储,到相似度检索和Prompt增强。在实际项目中,建议先从简单的关键字检索+向量混合方案开始,逐步引入重排序、查询重写等优化策略。

Read more

前端防范 XSS(跨站脚本攻击)

目录 一、防范措施 1.layui util  核心转义的特殊字符 示例 2.js-xss.js库 安装 1. Node.js 环境(npm/yarn) 2. 浏览器环境 核心 API 基础使用 1. 基础过滤(默认规则) 2. 自定义过滤规则 (1)允许特定标签 (2)允许特定属性 (3)自定义标签处理 (4)自定义属性处理 (5)转义特定字符 常见场景示例 1. 过滤用户输入的评论内容 2. 允许特定富文本标签(如富文本编辑器内容) 注意事项 更多配置 XSS(跨站脚本攻击)是一种常见的网络攻击手段,它允许攻击者将恶意脚本注入到其他用户的浏览器中。

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例)

Cursor+Codex隐藏技巧:用截图秒修前端Bug的保姆级教程(React/Chakra UI案例) 前端开发中最令人头疼的莫过于那些难以定位的UI问题——元素错位、样式冲突、响应式失效...传统调试方式往往需要反复修改代码、刷新页面、检查元素。现在,通过Cursor编辑器集成的Codex功能,你可以直接用截图交互快速定位和修复这些问题。本文将带你从零开始,掌握这套革命性的调试工作流。 1. 环境准备与基础配置 在开始之前,确保你已经具备以下环境: * Cursor编辑器最新版(v2.5+) * Node.js 18.x及以上版本 * React 18项目(本文以Chakra UI 2.x为例) 首先在Cursor中安装Codex插件: 1. 点击左侧扩展图标 2. 搜索"Codex"并安装 3. 登录你的OpenAI账户(需要ChatGPT Plus订阅) 关键配置项: // 在项目根目录创建.