Spring Boot 中基于 WebClient 的 SSE 流式接口实战

—— 从 Feign 到 WebClient 的一次真实踩坑记录

一、背景:为什么我要做 SSE?

在最近的一个项目中,我负责接入一个 AI 问答服务
一开始的接口形态非常常规:

@PostMapping("/health_manager") public RespBean<HealthManagerQueryDataVO> sendQuery(...) 

客户端发请求,服务端等 AI 全部生成完内容,再一次性返回。

问题很快就暴露了:

  • AI 返回慢(10 秒甚至更久)
  • 用户页面“卡死”,体验极差
  • 其实 AI 是“边生成边返回”的,但我们完全浪费了这个能力

于是,目标就很明确了:

把原有同步接口,改造成支持 SSE(Server-Sent Events)的流式接口

二、什么是 SSE?为什么适合 AI 问答?

1️⃣ SSE 是什么?

SSE(Server-Sent Events)是一种 服务器主动推送 的 HTTP 通信方式:

  • 基于 HTTP
  • 单向(服务端 → 客户端)
  • 长连接
  • 文本流(text/event-stream

返回的数据长这样:

data: 你好 data: 我是 data: AI 

客户端可以一边接收,一边渲染


2️⃣ 为什么 SSE 特别适合 AI 场景?

技术适配度
HTTP 普通接口❌ 等全部生成
WebSocket❌ 太重
SSE✅ 天生流式

AI 的输出特征是:

  • token 级 / 句子级生成
  • 可边生成边消费
  • 用户随时可能中断

👉 SSE 几乎是最优解


三、第一个坑:Feign 不支持 SSE

项目里原本调用 AI 服务用的是 Feign

@FeignClient("mb-ai") RespBean sendQuery(...) 

一开始我尝试“硬改”,但很快发现:

Feign 本质是一次性 HTTP 调用,它不支持流式消费响应体

哪怕 AI 服务是 SSE,Feign 也会:

  • 等完整响应
  • 再反序列化
  • 流式直接失效

结论很明确:

❌ Feign 不能用于 SSE
✅ SSE 必须用 WebClient / HttpClient

四、正确姿势:WebClient + SseEmitter

1️⃣ Controller 层:返回 SseEmitter

SSE 接口和普通接口最大的不同是:
返回值不再是业务对象,而是一个“连接本身”

@PostMapping( value = "/health_manager/stream", produces = MediaType.TEXT_EVENT_STREAM_VALUE ) public SseEmitter healthManagerStream( @RequestBody HealthManagerQueryDTO request) { SseEmitter emitter = new SseEmitter(0L); // 不超时 aiService.streamQuery(request, emitter); return emitter; } 

关键点:

  • produces = text/event-stream
  • 返回 SseEmitter
  • 业务逻辑交给 Service

2️⃣ Service 层:WebClient 真正消费 AI 流

webClient.post() .uri("/health_manager") .contentType(MediaType.APPLICATION_JSON) .accept(MediaType.TEXT_EVENT_STREAM) .bodyValue(request) .retrieve() .bodyToFlux(String.class) .subscribe( data -> emitter.send(data), error -> emitter.completeWithError(error), emitter::complete ); 

这段代码的含义是:

  • AI 每吐一段数据
  • 我就 emitter.send()
  • 前端立刻收到

真正实现了“边生成、边返回、边渲染”


五、第二个大坑:UnknownHostException: mb-ai

代码写完,一跑,直接报错:

java.net.UnknownHostException: mb-ai 

第一反应:

“不对啊,Feign 一直是能调用 mb-ai 的”

原因分析

  • Feign:自动走注册中心(Nacos / Eureka)
  • WebClient:只认 DNS
.baseUrl("http://mb-ai") 

在 WebClient 看来:

mb-ai 就是一个普通域名
但 DNS 根本不认识它

六、正确解法:WebClient 接入服务发现

1️⃣ 引入 LoadBalancer

<dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-loadbalancer</artifactId> </dependency> 

2️⃣ 给 WebClient.Builder 加 @LoadBalanced

@Configuration public class WebClientConfig { @Bean @LoadBalanced public WebClient.Builder webClientBuilder() { return WebClient.builder(); } } 

3️⃣ baseUrl 继续用服务名

.baseUrl("http://mb-ai") 

此时调用链变成:

WebClient → LoadBalancer → Nacos → 真实 IP:PORT 

UnknownHostException 到此彻底解决


七、最终依赖组合(最小可用)

<!-- WebClient / SSE --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-webflux</artifactId> </dependency> <!-- 服务发现 --> <dependency> <groupId>org.springframework.cloud</groupId> <artifactId>spring-cloud-starter-loadbalancer</artifactId> </dependency> <!-- Nacos(项目里一般已有) --> spring-cloud-starter-alibaba-nacos-discovery 
⚠️ 不会把项目变成 WebFlux
只是“在 MVC 项目里用 WebClient”

八、架构上的最终形态(我现在的做法)

Feign └── 普通同步接口(兼容老系统) WebClient └── SSE 流式接口(AI 问答) 

接口层设计成:

POST /health_manager // 非流式 POST /health_manager/stream // SSE 

前端可以按需选择。


九、一些实战踩坑总结

❌ Feign 强行做 SSE

→ 行不通

❌ WebClient 不加 LoadBalanced

→ 必炸 UnknownHostException

❌ 忘了 produces

→ 前端收不到流

❌ AI 实际没返回 text/event-stream

→ 你这边再对也没用


十、写在最后

这次改造最大的收获不是“把 SSE 跑通了”,而是更清楚地理解了:

  • Feign 和 WebClient 的边界
  • 同步接口和流式接口在架构层面的本质差异
  • AI 场景对交互模型的倒逼

如果你现在也在做:

  • AI 问答
  • 长文本生成
  • 实时推送

那么,SSE 几乎是绕不开的一步

Read more

手把手教你免费获取豆包 AI API Key 并接入前端项目

文章目录 * 手把手教你免费获取豆包 AI API Key 并接入前端项目(超详细图文版) * 一、先说清楚:豆包 AI API 在哪里申请? * 二、准备工作(2 分钟完成) * 三、正式获取 API Key(5 分钟搞定) * 步骤 1:进入火山方舟平台 * 步骤 2:创建 API Key(最重要) * 步骤 3:开通豆包 AI 模型 * 步骤 4:创建「推理接入点」获取 Endpoint ID * 四、拿到这两个东西就成功了 * 五、前端接入代码示例(Vue3 可直接用)

2026年3月13日AI热点:芯片大战、Agent爆发、安全争议

2026年3月13日AI热点:芯片大战、Agent爆发、安全争议 今日AI圈发生了什么?十大热点一文打尽 ChatGPT o3 pro | Claude 3.7 | Gemini 2.5 pro免费用 👉 AI工具集 今天的AI圈依然热闹非凡!从芯片巨头的大手笔投入,到Agent时代的全面爆发,再到AI安全争议愈演愈烈…让我带你一篇看完今日AI十大热点! 🔥 十大AI新闻 1. Anthropic 起诉美国国防部 Anthropic就供应链风险认定起诉五角大楼,称这一认定可能让其损失数十亿美元。特朗普政府表示不排除对Anthropic采取进一步行动。 2. Nvidia 投资260亿美元开发开源模型 最新文件显示,Nvidia计划投入260亿美元构建开源权重AI模型,展现其对开源生态的承诺。 3. Meta 发布4款新AI芯片 Meta推出了MTIA 300芯片,用于训练Instagram和Facebook的排序推荐系统。MTIA 400/450/500将在2027年前支持生成式AI推理。 4. Google Gemini 登陆 Chrome

掌握提问驱动AI:速通大模型提示工程

掌握提问驱动AI:速通大模型提示工程

大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为ZEEKLOG博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。 本文主要介绍了掌握提问驱动AI:速通大模型提示工程,希望能对学习大模型的同学们有所帮助。 文章目录 * 1. 前言 * 2. 书籍推荐 * 2.1 内容简介 * 2.2 本书作者 * 2.3 本书目录 * 2.4 适合读者 * 3. 购买链接 1. 前言 我们正身处一场人类认知方式的深刻变革之中。 曾几何时,我们习惯于在搜索引擎的框框里输入关键词,试图在浩如烟海的信息碎片中拼凑出想要的答案。而如今,随着生成式人工智能的爆发,获取知识的门槛被瞬间拉平。超级算力被压缩进一个简单的对话框,似乎每个人都握住了一把通往全知全能的钥匙。 然而,在这场技术普惠的狂欢背后,一个新的鸿沟正在悄然拉开。

30 分钟上手 OpenClaw!Windows 搭建 AI 助手,打破智能生活的边界

30 分钟上手 OpenClaw!Windows 搭建 AI 助手,打破智能生活的边界

前言 你是否曾被这样的场景困扰:想让 AI 帮忙写一份工作汇报,却要在 ChatGPT 网页、飞书机器人、钉钉助手之间反复切换;出门在外想调取家里电脑的资料,却被局域网限制束手无策;尝试接入不同的 AI 大模型,却被复杂的 API 配置劝退…… 我们对智能助手的期待,从来不是 “只能在单一平台聊聊天”,而是 “能跨场景、跨设备,像真人一样替我们解决实际问题”。 OpenClaw,正是为满足这份期待而生的开源 AI 网关工具。自 2025 年 11 月开源以来,它凭借 “一次部署,多平台通联” 的核心优势,迅速斩获 GitHub 230K + 星标,成为 AI 领域的热门项目。不同于传统的 AI 工具,OpenClaw 真正实现了