AI大模型实用(三)Java快速实现智能体整理(Springboot+LangChain4j)

目录

1.1 简介

1.2 示例

步骤一: 添加pom

步骤二:配置

步骤三:流式输出

步骤四: 正常输出

步骤五: 【类似函数调用】AI Service接口

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

问题2: overriding is disabled

问题3 :dev.langchain4j.exception.IllegalConfigurationException

1.4  langchain4j与springAI对比


1.1 简介

一个基于 Java 的库,旨在简化自然语言处理(NLP)和大型语言模型(LLM)的集成;

提供了大量现成的组件(文档加载器、工具、链),用于构建AI应用,是目前Java生态中最接近Python LangChain成熟度的选择。

1.2 示例

步骤一: 添加pom

<!-- https://mvnrepository.com/artifact/dev.langchain4j/langchain4j --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-core</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency> <!-- 导入响应式编程依赖包--> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-reactor</artifactId> <version>1.9.1-beta17</version> </dependency>

步骤二:配置

langchain4j.open-ai.chat-model.api-key=你的deepseekkey langchain4j.open-ai.chat-model.model-name=deepseek-chat langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com langchain4j.open-ai.chat-model.log-requests=true langchain4j.open-ai.chat-model.log-responses=true

如果没有key:

langchain4j.open-ai.chat-model.api-key=demo

langchain4j.open-ai.chat-model.model-name=gpt-4o-mini

langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

步骤三:流式输出

package com.ai.LangChain4j; import dev.langchain4j.model.chat.StreamingChatModel; import dev.langchain4j.model.openai.OpenAiStreamingChatModel; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; //创建流式聊天模型配置 @Configuration public class Langchain4jStreamingChatModelConfig { @Value("${langchain4j.open-ai.chat-model.api-key}") private String apiKey; @Value("${langchain4j.open-ai.chat-model.base-url}") private String baseUrl; @Value("${langchain4j.open-ai.chat-model.model-name}") private String modelName; @Value("${langchain4j.open-ai.chat-model.log-requests}") private Boolean logRequests; @Value("${langchain4j.open-ai.chat-model.log-responses}") private Boolean logResponses; @Bean("langchain4jStreamingChatModel") public StreamingChatModel streamingChatModel() { Map<String,String> map = new HashMap<>(); map.put("Content-Type","application/json"); map.put("charset","utf-8"); return OpenAiStreamingChatModel.builder() .baseUrl(baseUrl) .apiKey(apiKey) .modelName(modelName) //使用的模型名称 .temperature(0.7) // 控制回答的随机性(0-1,越高越随机) .maxTokens(1000) // 单次回答的最大token数 .logRequests(logRequests) // 记录请求日志 .logResponses(logResponses) // 记录响应日志 .returnThinking(true) // 是否返回AI的思考过程 // .customHeaders(map) .build(); } } @Resource(name = "langchain4jStreamingChatModel") private OpenAiStreamingChatModel streamingChatModel; @RequestMapping(value = "/chatstream") public Flux<String> chatstream(@RequestParam("message") String prompt) { return Flux.create(emitter -> { streamingChatModel.chat(prompt, new StreamingChatResponseHandler() { @Override public void onPartialResponse(String partialResponse) { emitter.next(partialResponse); } @Override public void onCompleteResponse(ChatResponse chatResponse) { emitter.complete(); } @Override public void onError(Throwable throwable) { emitter.error(throwable); } }); }); } 

参考:https://www.cnblogs.com/timothy020/p/19043509

步骤四: 正常输出

@Autowired private OpenAiChatModel model; @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

步骤五: 【类似函数调用】AI Service接口

package com.ai.LangChain4j; import dev.langchain4j.service.SystemMessage; import dev.langchain4j.service.spring.AiService; import dev.langchain4j.service.UserMessage; /** * AI Service接口 :可把它看作标准 Spring Boot的 @Service,但带有 AI 功能。 * * 当应用程序启动时,LangChain4j 启动器将扫描类路径并找到所有带有 @AiService 注解的接口。对于每个找到的 AI 服务,它将使用应用程序上下文中的所有 LangChain4j 组件创建此接口的实现,并将其注册为一个 bean * * 最大限度的调用函数工具:@UserMessage 我们通过提示词,让大模型尽量考虑调用我们的函数工具 */ @AiService interface Assistant { @UserMessage("针对提出的问题:{{it}},请尽量调用已有的函数工具") @SystemMessage("You are a polite assistant") String chat(String userMessage); } package com.ai.LangChain4j; import dev.langchain4j.agent.tool.Tool; /** 定义工具类(类似函数调用) * @Tool用于对函数进行功能描述 * 描述的越清楚,大模型越容易考虑是否需要使用函数工具 *工具可以是任何东西:网页搜索、外部API调用、或执行一段特定代码等 * * */ public class CalculatorTool { @Tool("计算字符串的长度") int stringLength(String s) { System.out.println("Called stringLength with + s + "'"); return s.length(); } @Tool("计算两个整数的和") int add(int a, int b) { System.out.println("Called add with a=" + a + ", b=" + b); return a + b; } @Tool("计算整数的平方根") double sqrt(int x) { System.out.println("Called sqrt with x=" + x); return Math.sqrt(x); } } @Autowired private ChatModel chatModel; @Autowired Assistant assistant; @GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

注: 运行时有日志

 @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

运行结果:

@GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

运行结果:

参考:

https://blog.ZEEKLOG.net/matrixlzp/article/details/150610135

https://blog.ZEEKLOG.net/m0_71741473/article/details/148379520

https://cloud.tencent.com/developer/article/2512470

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

解决:  检查

application.properties的配置

langchain4j.open-ai.chat-model.api-key=demo langchain4j.open-ai.chat-model.model-name=gpt-4o-mini langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

注: 如果你暂时没有密钥,也可以使用 LangChain4j 提供的演示密钥(同上),这个密钥是免费的,有使用配额限制,且仅限于 gpt-4o-mini 模型

注: 如果已经有密钥,直接替换即可。

问题2: overriding is disabled

The bean 'openAiChatModel', defined in class path resource [org/springframework/ai/autoconfigure/openai/OpenAiAutoConfiguration.class], could not be registered. A bean with that name has already been defined in class path resource [dev/langchain4j/openai/spring/AutoConfig.class] and overriding is disabled.

解决: 

去掉langchain4j的openapi相关的依赖或者去掉SpringAI的openapi相关的依赖

<!-- &lt;!&ndash; LangChain4j OpenAI 支持(用于兼容 OpenAI 接口的模型,如 GPT 或阿里云百炼) &ndash;&gt;--> <!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai</artifactId>--> <!-- <version>1.9.1</version>--> <!-- </dependency>--><!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId>--> <!-- <version>1.9.1-beta17</version>--> <!-- </dependency>-->

问题3 :dev.langchain4j.exception.IllegalConfigurationException

解决: 该问题是langchain4j-spring-boot-starter版本兼容问题。 可以对应修改和langchain4j生态兼容的版本。例如 <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency>

1.4  langchain4j与springAI对比

核心功能对比

  1. ‌设计理念与定位‌: 
    • Spring AI 由 Spring 官方团队维护,核心目标是简化 AI 模型集成,提供统一 API 调用(如 OpenAI、Azure OpenAI),降低开发门槛,尤其适合已使用 Spring 生态的项目。‌‌
    • LangChain4j 是 LangChain 的 Java 实现,专注于模块化设计,支持智能 Agent、链式调用、记忆管理等高级功能,灵活性更高,但需要开发者手动组装组件。‌‌
  2. ‌高级功能支持‌: 
    • ‌多步骤推理与 Agent 管理‌:LangChain4j 内置 Agent 框架,支持复杂工作流编排(如动态工具调用、多条件决策),而 Spring AI 需开发者自行实现逻辑。‌‌
    • ‌记忆与上下文管理‌:LangChain4j 提供多样化记忆存储方案(如会话记忆、长期记忆),Spring AI 需手动管理对话状态。‌‌
    • ‌工具集成‌:LangChain4j 支持直接定义和调用外部工具(如天气查询、计算器),Spring AI 需额外处理函数调用。‌‌
  3. ‌RAG(检索增强生成)支持‌:LangChain4j 提供文本加载、解析、分割等完整工具链,Spring AI 的 RAG 功能相对基础

注意:

可以与 Spring Boot 等整合(langchain4j-spring 模块),但核心是一个纯 Java 库,需要手工 wiring 多数部分。

  • 使用 Spring AI 的典型用途:
    • 在已有 Spring Boot 微服务中嵌入 Chat 或 文本生成功能,例如客服机器人、内部文档助手。
    • 快速开发 embedding 搜索 + AI 文本摘要 + 图像生成业务。
    • 利用 Spring 的现有安全配置 /配置中心 /监控系统,保持统一架构。
  • 使用 LangChain4j 的典型用途:
    • 构建需要 Agent 调度、工具调用、Memory 管理的智能体。例如“用户输入 → 检索数据库 → 调用外部 API → 合成响应 → 写入日志”这种多步骤流程。
    • 构建自定义 RAG 服务:可插入自定义向量数据库、检索策略、重排序逻辑等。
    • 希望在 Java 应用中迁移或复制 LangChain Python 的工作流逻辑。

 参考:

https://www.cnblogs.com/duanxz/p/19088542

https://cloud.tencent.com/developer/article/2531640

Read more

7D-AI系列:AI 编程 Spec Coding 完整详细的典型标准化工作流

文章目录 * 前言 * 一、核心前提:什么是「Spec(规格)」?Spec的核心要求 * ✅ Spec的定义 * ✅ Spec的核心要求(重中之重,决定代码质量) * ✅ Spec的常见载体(按优先级排序,工业界高频使用) * 二、Spec Coding 标准完整工作流(6个核心阶段) * ✅ 核心原则 * 阶段1:需求拆解 & 范围界定(前置准备,耗时占比:10%) * 阶段2:编写精准的结构化Spec(核心核心,耗时占比:30%,最关键) * 阶段3:AI 代码生成(核心提效环节,耗时占比:5%) * 阶段4:人工评审 + 静态校验(第一道质检,耗时占比:15%,过滤80%的问题) * 阶段5:自动化测试

人工智能:自然语言处理在社交媒体分析领域的应用与实战

人工智能:自然语言处理在社交媒体分析领域的应用与实战

人工智能:自然语言处理在社交媒体分析领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在社交媒体分析领域的应用场景和重要性 💡 掌握社交媒体分析的核心技术(如情感分析、话题检测、用户画像构建) 💡 学会使用前沿模型(如BERT、GPT-3)进行社交媒体文本分析 💡 理解社交媒体分析的特殊挑战(如数据量大、噪声多、实时性要求高) 💡 通过实战项目,开发一个社交媒体话题检测应用 重点内容 * 社交媒体分析的主要应用场景 * 核心技术(情感分析、话题检测、用户画像构建) * 前沿模型(BERT、GPT-3)在社交媒体分析中的使用 * 社交媒体分析的特殊挑战 * 实战项目:社交媒体话题检测应用开发 一、社交媒体分析的主要应用场景 1.1 情感分析 1.1.1 情感分析的基本概念 情感分析是对社交媒体文本中情感倾向进行分析和判断的过程。在社交媒体分析领域,情感分析的主要应用场景包括: * 品牌声誉管理:分析用户对品牌的情感倾向(如“正面评价”、“负面评价”

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

5大AI代码生成工具实测:GitHub Copilot竟输给国产黑马

AI代码生成工具在软件测试领域的崛起 随着人工智能技术的飞速发展,AI代码生成工具已成为软件测试从业者的重要助手。这些工具不仅能自动生成单元测试、集成测试脚本,还能提升测试覆盖率和效率,减少人为错误。本次实测聚焦于5款主流工具:GitHub Copilot、Tabnine、Kite、DeepSeek-Coder(代表国产工具),以及Amazon CodeWhisperer。我们针对软件测试场景设计实验,从专业性、准确性和实用性角度进行深度评测。实测结果令人意外:长期被视为行业标杆的GitHub Copilot在多项测试指标中落后于国产黑马DeepSeek-Coder。本文将详细解析实测过程、数据对比,以及对测试工作的实际影响。 一、实测工具概览:五大AI助手简介 在深入实测前,先简要介绍参评的五款工具及其在测试领域的定位: 1. GitHub Copilot:由GitHub和OpenAI联合开发,支持多种语言(如Python、Java),以代码补全和函数生成为核心功能。在测试中常用于生成单元测试框架(如JUnit或Pytest脚本)。 2. Tabnine:基于深度学习模型

Whisper.cpp终极指南:零基础实现快速语音识别的完整方案

Whisper.cpp终极指南:零基础实现快速语音识别的完整方案 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 你是否曾经因为语音识别速度太慢而失去耐心?😫 想要在普通电脑上实现实时语音转文字,却被复杂的GPU配置搞得头晕眼花?别担心,今天我将带你用最简单的步骤,让whisper.cpp在CPU环境下也能实现闪电般的语音识别速度! 为什么选择Whisper.cpp进行语音识别? whisper.cpp作为OpenAI Whisper模型的C++移植版本,相比原版Python实现有着天然的性能优势。它不需要昂贵的GPU设备,在普通CPU上就能流畅运行,特别适合个人开发者和小型项目使用。 三步快速安装配置指南 🚀 第一步:获取项目源码 首先需要下载whisper.cpp项目代码,这是所有操作的基础: git clone https://gitcode.com/GitHub_