Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

Spring AI系列之RAG(检索增强生成)从原理到实战指南

在LLM(大语言模型)时代,如何让AI既拥有通用能力又具备专业知识?RAG技术给出了完美答案。本文将基于Spring AI生态,深入剖析RAG的核心原理、实现细节与优化策略。

一、为什么需要RAG?

在深入了解RAG之前,我们需要先认识传统LLM的局限性:

缺陷类型具体表现RAG解决方案
知识截止模型知识有截止日期,无法获取最新信息实时检索外部知识库
幻觉问题自信地生成看似合理但实际错误的内容基于检索到的真实信息生成
上下文限制长文本处理能力有限只检索最相关的上下文片段
领域专业度通用模型缺乏垂直领域深度知识外挂专业领域知识库

比喻理解:如果将LLM比作一个"高中毕业生",那么:

  • Fine-tuning(微调) = 让他花7年时间去医学院学习,然后成为医生
  • RAG = 给他配备了一群专业主任医师作为顾问,遇到问题时先咨询专家再作答

二、RAG核心架构解析

2.1 整体工作流程

RAG的工作流程可以分为两大阶段:离线索引(Indexing)在线检索生成(Retrieval & Generation)

RAG论⽂:https://arxiv.org/pdf/2312.10997

在这里插入图片描述


中文版本:

在这里插入图片描述

详细流程说明

  1. 索引阶段(离线)
    • 文档加载:从PDF、Word、Excel等格式中提取文本
    • 文本分割(Chunking):将长文档切分为适当大小的片段
    • 向量化(Embedding):使用Embedding模型将文本转为向量
    • 存储:存入Milvus、Redis等向量数据库
  2. 检索阶段(在线)
    • 查询向量化:将用户问题转换为向量
    • 相似度匹配:在向量空间中查找最相似的Top-K个片段
    • 重排序(Reranking):(可选)对检索结果进行精排
  3. 生成阶段
    • 上下文组装:将检索到的片段作为"已知信息"注入Prompt
    • LLM推理:模型基于提供的上下文生成答案

2.2 关键技术:Embedding与相似度计算

什么是Embedding?
Embedding是将文本、图像等转换为高维向量的技术。语义相似的文本在向量空间中的距离更近。

例如,⼆维空间中的向量可以表示为 (𝑥,𝑦),即表示从原点 (0,0) 到点 (𝑥,𝑦) 的有向线段

在这里插入图片描述
  1. 将⽂本转成⼀组浮点数:每个下标 i ,对应⼀个维度
  2. 整个数组对应⼀个 n 维空间的⼀个点,即⽂本向量叫 Embeddings
  3. 向量之间可以计算距离,距离远近对应语义相似度⼤⼩
"这个多少钱" → [0.1, 0.5, -0.7, ..., 0.25] "这个什么价格" → [0.12, 0.4, -0.3, ..., 0.3] ← 距离近(语义相似) "给我报个价" → [0.15, 0.3, -0.2, ..., 0.3] ← 距离近(语义相似) "我想要这个" → [0.8, -0.1, 0.4, ..., -0.1] ← 距离远(语义不同) 
在这里插入图片描述

相似度计算方法

  1. 余弦相似度(Cosine Similarity)
    • 衡量两个向量方向的相似性,值域[-1, 1]
    • 适合文本语义匹配,不受向量长度影响
    • 公式: s i m i l a r i t y ( A , B ) = A ⋅ B ∥ A ∥ ∥ B ∥ similarity(A,B) = \frac{A \cdot B}{\|A\| \|B\|} similarity(A,B)=∥A∥∥B∥A⋅B​
  2. 欧氏距离(Euclidean Distance)
    • 衡量向量空间的实际距离
    • 公式: d ( A , B ) = ∑ i = 1 n ( a i − b i ) 2 d(A,B) = \sqrt{\sum_{i=1}^{n}(a_i - b_i)^2} d(A,B)=∑i=1n​(ai​−bi​)2​
    • 值越小越相似

具体选哪种方法?

  • 欧式距离:如果更侧重于向量的实际距离,且向量的尺度相对一致时,更适合用欧式距离

余弦相似度:更适用于比较文本、关键词向量等场景。因为这些场景向量的方向比他们的模长更重要

在这里插入图片描述

三、实战:基于Spring AI + Milvus实现RAG

3.1 环境准备

依赖配置(Maven)

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-openai</artifactId></dependency><dependency><groupId>io.milvus</groupId><artifactId>milvus-sdk-java</artifactId><version>2.2.10</version></dependency>

配置信息

# OpenAI配置(用于Embedding和Chat) spring.ai.openai.api-key=your-api-key spring.ai.openai.embedding.api-key=your-api-key spring.ai.openai.embedding.base-url=https://api.openai-hk.com # Milvus配置 milvus.host=localhost milvus.port=19530 

3.2 核心代码实现

步骤1:创建向量集合
publicvoidcreateCollection(){List<FieldType> fieldTypes =Arrays.asList(// 主键IDFieldType.newBuilder().withName("id").withDataType(DataType.Int64).withPrimaryKey(true).withAutoID(true).build(),// 向量字段(1536维,对应text-embedding-3-small)FieldType.newBuilder().withName("feature").withDataType(DataType.FloatVector).withDimension(1536).build(),// 原始文本FieldType.newBuilder().withName("instruction").withDataType(DataType.VarChar).withMaxLength(65535).build(),// 答案内容FieldType.newBuilder().withName("output").withDataType(DataType.VarChar).withMaxLength(65535).build());CreateCollectionParam createParam =CreateCollectionParam.newBuilder().withCollectionName("springai_rag").withFieldTypes(fieldTypes).build(); client.createCollection(createParam);// 创建IVF_FLAT索引,加速检索CreateIndexParam indexParam =CreateIndexParam.newBuilder().withCollectionName("springai_rag").withFieldName("feature").withIndexType(IndexType.IVF_FLAT).withMetricType(MetricType.L2).build(); client.createIndex(indexParam);}
步骤2:数据向量化与存储
@AutowiredprivateEmbeddingModel embeddingModel;publicvoidinsertData(List<FaqItem> items){for(FaqItem item : items){// 1. 文本向量化float[] embeddings = embeddingModel.embed(item.getInstruction());// 2. 构建插入参数List<InsertParam.Field> fields =newArrayList<>(); fields.add(newInsertParam.Field("feature",Collections.singletonList(embeddings))); fields.add(newInsertParam.Field("instruction",Collections.singletonList(item.getInstruction()))); fields.add(newInsertParam.Field("output",Collections.singletonList(item.getOutput())));// 3. 插入MilvusInsertParam insertParam =InsertParam.newBuilder().withCollectionName("springai_rag").withFields(fields).build(); client.insert(insertParam);}}
步骤3:RAG检索与生成
@TestvoidragTest(){String userQuestion ="预算8000元以内,适合深度学习的笔记本电脑推荐";// 1. 向量化查询float[] queryEmbedding = embeddingModel.embed(userQuestion);// 2. 向量检索Top-3SearchParam searchParam =SearchParam.newBuilder().withCollectionName("springai_rag").withMetricType(MetricType.L2).withTopK(3).withVectors(Collections.singletonList(queryEmbedding)).withVectorFieldName("feature").withOutFields(Arrays.asList("instruction","output")).build();SearchResults results = client.search(searchParam).getData();List<RowRecord> records =newSearchResultsWrapper(results).getRowRecords();// 3. 构建上下文StringBuilder context =newStringBuilder();for(RowRecordrecord: records){ context.append("Q: ").append(record.get("instruction")).append("\n"); context.append("A: ").append(record.get("output")).append("\n\n");}// 4. 构建增强PromptString enhancedPrompt =String.format(""" # 角色设定 你是资深数码产品顾问,擅长根据用户需求推荐笔记本电脑。 请严格基于以下商品库信息回答,不要推荐库中不存在的商品。 # 商品库信息(Top-3匹配结果): %s # 用户需求: %s # 回答要求: 1. 先分析用户需求(用途、预算、性能要求) 2. 从商品库中推荐1-2款最合适的,说明理由 3. 如果商品库中没有匹配项,请明确告知"暂无符合要求的商品" 4. 最后可简要补充选购建议(非强制) """, context, userQuestion);// 5. 调用LLM生成String answer = chatClient.prompt(enhancedPrompt).call().content();System.out.println(answer);}

四、RAG优化策略与痛点解决

4.1 文本分割的艺术(Chunking Strategy)

文本分割是影响RAG效果的关键因素,常用策略对比:

分割策略实现方式优点缺点适用场景
固定字符数每N个字符切分简单高效可能切断语义对上下文连续性要求不高的场景
滑动窗口固定大小+重叠部分保留上下文衔接数据冗余,存储增加需要连贯性的长文档
递归字符按标点优先级切分(先句号→逗号→空格)保持语义完整实现复杂专业文档、论文
基于语义使用NLP模型判断语义边界最优语义保留计算成本高高精度要求的知识库

最佳实践

  • 结合文档结构(Markdown标题、PDF段落)进行分层切分
  • chunk大小建议:256-512 tokens(根据embedding模型调整)
  • 设置适当的重叠(overlap)保持上下文连贯

4.2 检索优化的进阶技巧

1. 混合检索(Hybrid Search)
结合关键词检索(BM25)和向量检索,兼顾精确匹配和语义理解:

// 伪代码示例List<Document> keywordResults =keywordSearch(query);List<Document> vectorResults =vectorSearch(query);List<Document> hybridResults =rerank(merge(keywordResults, vectorResults));

2. 重排序(Reranking)
使用专门的交叉编码器(Cross-Encoder)模型对Top-K结果进行精排:

  • 先使用向量检索召回Top-20
  • 使用重排模型计算问题与文档的相关性分数
  • 取Top-3作为最终上下文

3. 查询重写(Query Rewriting)
对用户的模糊查询进行扩展和澄清:

  • 原查询:“这个多少钱?”
  • 重写后:“iPhone 15 Pro Max 256GB 官方售价是多少?”

4.3 RAG痛点与解决方案

基于《Seven Failure Points When Engineering a Retrieval Augmented Generation System》的总结:

痛点类别具体表现解决方案
Missing Content知识库中没有答案设置兜底回复;持续扩充知识库
Missed Top Ranked正确答案未进入Top-K调整similarity阈值;引入重排序
Not in Context检索到内容但与问题无关优化文本分割;提升向量模型质量
Wrong Format需要JSON但返回了文本Prompt中明确输出格式示例;使用结构化输出
Incomplete答案只覆盖问题部分引导模型逐步思考(CoT);拆分复杂问题
Not Extracted上下文中有答案但模型未提取优化Prompt模板;增强上下文标识

五、RAG效果评估(RAGAS)

RAGAS(Retrieval-Augmented Generation Assessment)是评估RAG系统的标准框架,核心指标:

5.1 检索质量指标

  1. Context Relevancy(上下文相关性)
    • 衡量检索到的上下文与问题的相关程度
    • 计算公式:相关句子数 / 总句子数
  2. Context Recall(上下文召回率)
    • 衡量检索结果是否包含回答问题所需的所有信息
    • 基于标准答案(Ground Truth)进行判断

5.2 生成质量指标

  1. Faithfulness(忠实性)
    • 评估生成答案是否基于检索到的上下文,而非幻觉
    • 值越高,模型"编造"内容越少
  2. Answer Relevancy(答案相关性)
    • 衡量答案与问题的直接相关程度

评估数据集格式

{"question":"预算8000元以内,适合深度学习的笔记本电脑推荐","contexts":["机械革命翼龙15 Pro配备RTX4060显卡,支持CUDA加速,售价7499元","联想拯救者Y7000P 2024款搭载i7-14650HX和RTX4060,售价8499元超出预算","轻薄本不适合深度学习,缺乏独立显卡"],"answer":"推荐机械革命翼龙15 Pro,配备RTX4060显卡支持CUDA加速,价格7499元符合预算","ground_truths":["机械革命翼龙15 Pro,RTX4060,7499元"]}

六、总结与展望

RAG vs Fine-tuning 选择指南

选择RAG的场景

  • 需要实时更新的知识(如新闻、股价)
  • 数据量庞大且频繁变动
  • 需要解释性强的应用场景(可溯源到具体文档)
  • 预算有限,无法承担微调成本

选择Fine-tuning的场景

  • 需要改变模型行为风格(如特定语气、格式)
  • 领域知识非常固定且通用模型表现极差
  • 对延迟敏感(RAG需要额外检索时间)

未来趋势

  1. Agentic RAG:结合ReAct模式,让模型自主决定何时检索、检索什么
  2. 多模态RAG:支持图片、音频、视频的检索增强
  3. Graph RAG:结合知识图谱,处理复杂的多跳推理问题

参考资料

  • Spring AI官方文档
  • 《Seven Failure Points When Engineering a Retrieval Augmented Generation System》
  • Milvus向量数据库最佳实践

通过本文,你应该已经掌握了RAG技术的完整链路:从文档切分、向量化存储,到相似度检索和Prompt增强。在实际项目中,建议先从简单的关键字检索+向量混合方案开始,逐步引入重排序、查询重写等优化策略。

Read more

【福利教程】一键解锁 ChatGPT / Gemini / Spotify 教育权益!TG 机器人全自动验证攻略

想要免费使用 ChatGPT 教师版(直至 2027 年)?想白嫖 Gemini Advanced 一年?还是想以学生优惠价订阅 Spotify? 无需繁琐的资料证明,现在只需要一个 Telegram 机器人,即可自动化完成 SheerID 身份认证,轻松解锁各类教育版专属福利! 🎁 你能获取哪些权益? 通过此机器人协助验证,你可以获取以下顶级服务的教育/学生权益: 1. 🤖 ChatGPT K-12 教师版 * 权益:美国 K-12 教育工作者专属福利,相当于 Plus 会员体验。 * 有效期:免费使用至 2027 年 6 月。 1. ✨ Gemini One Pro (教育版) * 权益:Google 最强 AI

clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。 一、网络要求 * 魔法 * 确保网络能够访问Discord服务 * TUN模式(关键哦) 二、Discord平台配置 2.1 访问Discord开发者平台 访问地址:https://discord.com/developers/applications 2.2 创建应用程序 1. 登录Discord开发者平台

Anything to RealCharacters 2.5D转真人引擎:AR应用虚拟角色写实化预处理

Anything to RealCharacters 2.5D转真人引擎:AR应用虚拟角色写实化预处理 1. 这不是“换脸”,而是让二次元角色真正“活”在现实里 你有没有试过把游戏里那个陪伴你通关的2.5D角色,或者社交平台收藏夹里最心动的动漫立绘,直接变成一张能放进手机相册、发朋友圈、甚至嵌入AR应用里的高清真人照片?不是贴图、不是滤镜、不是简单磨皮——而是从骨骼结构、皮肤微纹理、光影反射逻辑,到眼神神态的完整重建。 Anything to RealCharacters 2.5D转真人引擎干的就是这件事。它不追求“像真人”,而是让输入图像中的人物,在物理可信的维度上,真正符合真实世界的人体光学规律和解剖常识。这对AR内容创作者、虚拟偶像运营方、游戏本地化团队,甚至教育类数字人项目来说,意味着一个关键环节的自动化突破:虚拟角色的写实化预处理,终于可以脱离专业美术外包,本地一键完成。 它专为RTX 4090(24G显存)设计,不是“能跑”,而是“

StructBERT WebUI实战教程:用remove_duplicates函数实现万级评论去重脚本

StructBERT WebUI实战教程:用remove_duplicates函数实现万级评论去重脚本 你是不是也遇到过这样的烦恼?产品上线后,用户评论像潮水一样涌来,每天几千条,甚至上万条。但仔细一看,好多评论内容都差不多:“产品很好用”、“质量不错”、“推荐购买”……这些重复或相似的评论不仅让数据分析变得困难,还浪费了宝贵的存储空间。 手动去重?别开玩笑了,上万条评论,眼睛看花了也分不清哪些是重复的。用简单的字符串匹配?那更不行,“很好用”和“非常好用”明明意思一样,但字面上完全不同,传统方法根本识别不出来。 今天,我就带你用一个超级简单的方法,基于StructBERT WebUI,写一个不到50行的Python脚本,轻松搞定万级评论的去重工作。不用懂复杂的AI算法,也不用搭建复杂的环境,跟着我做,10分钟就能上手。 1. 为什么选择StructBERT做评论去重? 在开始写代码之前,我们先搞清楚一个问题:为什么不用传统的字符串匹配,而要选择StructBERT这种AI模型? 1.1 传统方法的局限性 我以前也试过用传统方法做评论去重,结果发现一堆问题: 字符串完