AI大模型实用(三)Java快速实现智能体整理(Springboot+LangChain4j)

目录

1.1 简介

1.2 示例

步骤一: 添加pom

步骤二:配置

步骤三:流式输出

步骤四: 正常输出

步骤五: 【类似函数调用】AI Service接口

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

问题2: overriding is disabled

问题3 :dev.langchain4j.exception.IllegalConfigurationException

1.4  langchain4j与springAI对比


1.1 简介

一个基于 Java 的库,旨在简化自然语言处理(NLP)和大型语言模型(LLM)的集成;

提供了大量现成的组件(文档加载器、工具、链),用于构建AI应用,是目前Java生态中最接近Python LangChain成熟度的选择。

1.2 示例

步骤一: 添加pom

<!-- https://mvnrepository.com/artifact/dev.langchain4j/langchain4j --> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-core</artifactId> <version>1.9.1</version> </dependency> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency> <!-- 导入响应式编程依赖包--> <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-reactor</artifactId> <version>1.9.1-beta17</version> </dependency>

步骤二:配置

langchain4j.open-ai.chat-model.api-key=你的deepseekkey langchain4j.open-ai.chat-model.model-name=deepseek-chat langchain4j.open-ai.chat-model.base-url=https://api.deepseek.com langchain4j.open-ai.chat-model.log-requests=true langchain4j.open-ai.chat-model.log-responses=true

如果没有key:

langchain4j.open-ai.chat-model.api-key=demo

langchain4j.open-ai.chat-model.model-name=gpt-4o-mini

langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

步骤三:流式输出

package com.ai.LangChain4j; import dev.langchain4j.model.chat.StreamingChatModel; import dev.langchain4j.model.openai.OpenAiStreamingChatModel; import org.springframework.beans.factory.annotation.Value; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; import java.util.HashMap; import java.util.Map; //创建流式聊天模型配置 @Configuration public class Langchain4jStreamingChatModelConfig { @Value("${langchain4j.open-ai.chat-model.api-key}") private String apiKey; @Value("${langchain4j.open-ai.chat-model.base-url}") private String baseUrl; @Value("${langchain4j.open-ai.chat-model.model-name}") private String modelName; @Value("${langchain4j.open-ai.chat-model.log-requests}") private Boolean logRequests; @Value("${langchain4j.open-ai.chat-model.log-responses}") private Boolean logResponses; @Bean("langchain4jStreamingChatModel") public StreamingChatModel streamingChatModel() { Map<String,String> map = new HashMap<>(); map.put("Content-Type","application/json"); map.put("charset","utf-8"); return OpenAiStreamingChatModel.builder() .baseUrl(baseUrl) .apiKey(apiKey) .modelName(modelName) //使用的模型名称 .temperature(0.7) // 控制回答的随机性(0-1,越高越随机) .maxTokens(1000) // 单次回答的最大token数 .logRequests(logRequests) // 记录请求日志 .logResponses(logResponses) // 记录响应日志 .returnThinking(true) // 是否返回AI的思考过程 // .customHeaders(map) .build(); } } @Resource(name = "langchain4jStreamingChatModel") private OpenAiStreamingChatModel streamingChatModel; @RequestMapping(value = "/chatstream") public Flux<String> chatstream(@RequestParam("message") String prompt) { return Flux.create(emitter -> { streamingChatModel.chat(prompt, new StreamingChatResponseHandler() { @Override public void onPartialResponse(String partialResponse) { emitter.next(partialResponse); } @Override public void onCompleteResponse(ChatResponse chatResponse) { emitter.complete(); } @Override public void onError(Throwable throwable) { emitter.error(throwable); } }); }); } 

参考:https://www.cnblogs.com/timothy020/p/19043509

步骤四: 正常输出

@Autowired private OpenAiChatModel model; @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

步骤五: 【类似函数调用】AI Service接口

package com.ai.LangChain4j; import dev.langchain4j.service.SystemMessage; import dev.langchain4j.service.spring.AiService; import dev.langchain4j.service.UserMessage; /** * AI Service接口 :可把它看作标准 Spring Boot的 @Service,但带有 AI 功能。 * * 当应用程序启动时,LangChain4j 启动器将扫描类路径并找到所有带有 @AiService 注解的接口。对于每个找到的 AI 服务,它将使用应用程序上下文中的所有 LangChain4j 组件创建此接口的实现,并将其注册为一个 bean * * 最大限度的调用函数工具:@UserMessage 我们通过提示词,让大模型尽量考虑调用我们的函数工具 */ @AiService interface Assistant { @UserMessage("针对提出的问题:{{it}},请尽量调用已有的函数工具") @SystemMessage("You are a polite assistant") String chat(String userMessage); } package com.ai.LangChain4j; import dev.langchain4j.agent.tool.Tool; /** 定义工具类(类似函数调用) * @Tool用于对函数进行功能描述 * 描述的越清楚,大模型越容易考虑是否需要使用函数工具 *工具可以是任何东西:网页搜索、外部API调用、或执行一段特定代码等 * * */ public class CalculatorTool { @Tool("计算字符串的长度") int stringLength(String s) { System.out.println("Called stringLength with + s + "'"); return s.length(); } @Tool("计算两个整数的和") int add(int a, int b) { System.out.println("Called add with a=" + a + ", b=" + b); return a + b; } @Tool("计算整数的平方根") double sqrt(int x) { System.out.println("Called sqrt with x=" + x); return Math.sqrt(x); } } @Autowired private ChatModel chatModel; @Autowired Assistant assistant; @GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

注: 运行时有日志

 @RequestMapping("/chat") public String chat(String message) { return model.chat(message); }

运行结果:

@GetMapping("/assistantchat") public String assistantchat(String message) { assistant = AiServices.builder(Assistant.class) .chatModel(chatModel) .tools(new CalculatorTool()) .build(); return assistant.chat(message); }

运行结果:

参考:

https://blog.ZEEKLOG.net/matrixlzp/article/details/150610135

https://blog.ZEEKLOG.net/m0_71741473/article/details/148379520

https://cloud.tencent.com/developer/article/2512470

1.3 调试问题

问题1: ClassNotFoundException: dev.langchain4j.exception.IllegalConfigurationException

解决:  检查

application.properties的配置

langchain4j.open-ai.chat-model.api-key=demo langchain4j.open-ai.chat-model.model-name=gpt-4o-mini langchain4j.open-ai.chat-model.base-url=http://langchain4j.dev/demo/openai/v1

注: 如果你暂时没有密钥,也可以使用 LangChain4j 提供的演示密钥(同上),这个密钥是免费的,有使用配额限制,且仅限于 gpt-4o-mini 模型

注: 如果已经有密钥,直接替换即可。

问题2: overriding is disabled

The bean 'openAiChatModel', defined in class path resource [org/springframework/ai/autoconfigure/openai/OpenAiAutoConfiguration.class], could not be registered. A bean with that name has already been defined in class path resource [dev/langchain4j/openai/spring/AutoConfig.class] and overriding is disabled.

解决: 

去掉langchain4j的openapi相关的依赖或者去掉SpringAI的openapi相关的依赖

<!-- &lt;!&ndash; LangChain4j OpenAI 支持(用于兼容 OpenAI 接口的模型,如 GPT 或阿里云百炼) &ndash;&gt;--> <!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai</artifactId>--> <!-- <version>1.9.1</version>--> <!-- </dependency>--><!-- <dependency>--> <!-- <groupId>dev.langchain4j</groupId>--> <!-- <artifactId>langchain4j-open-ai-spring-boot-starter</artifactId>--> <!-- <version>1.9.1-beta17</version>--> <!-- </dependency>-->

问题3 :dev.langchain4j.exception.IllegalConfigurationException

解决: 该问题是langchain4j-spring-boot-starter版本兼容问题。 可以对应修改和langchain4j生态兼容的版本。例如 <dependency> <groupId>dev.langchain4j</groupId> <artifactId>langchain4j-spring-boot-starter</artifactId> <version>1.9.1-beta17</version> </dependency>

1.4  langchain4j与springAI对比

核心功能对比

  1. ‌设计理念与定位‌: 
    • Spring AI 由 Spring 官方团队维护,核心目标是简化 AI 模型集成,提供统一 API 调用(如 OpenAI、Azure OpenAI),降低开发门槛,尤其适合已使用 Spring 生态的项目。‌‌
    • LangChain4j 是 LangChain 的 Java 实现,专注于模块化设计,支持智能 Agent、链式调用、记忆管理等高级功能,灵活性更高,但需要开发者手动组装组件。‌‌
  2. ‌高级功能支持‌: 
    • ‌多步骤推理与 Agent 管理‌:LangChain4j 内置 Agent 框架,支持复杂工作流编排(如动态工具调用、多条件决策),而 Spring AI 需开发者自行实现逻辑。‌‌
    • ‌记忆与上下文管理‌:LangChain4j 提供多样化记忆存储方案(如会话记忆、长期记忆),Spring AI 需手动管理对话状态。‌‌
    • ‌工具集成‌:LangChain4j 支持直接定义和调用外部工具(如天气查询、计算器),Spring AI 需额外处理函数调用。‌‌
  3. ‌RAG(检索增强生成)支持‌:LangChain4j 提供文本加载、解析、分割等完整工具链,Spring AI 的 RAG 功能相对基础

注意:

可以与 Spring Boot 等整合(langchain4j-spring 模块),但核心是一个纯 Java 库,需要手工 wiring 多数部分。

  • 使用 Spring AI 的典型用途:
    • 在已有 Spring Boot 微服务中嵌入 Chat 或 文本生成功能,例如客服机器人、内部文档助手。
    • 快速开发 embedding 搜索 + AI 文本摘要 + 图像生成业务。
    • 利用 Spring 的现有安全配置 /配置中心 /监控系统,保持统一架构。
  • 使用 LangChain4j 的典型用途:
    • 构建需要 Agent 调度、工具调用、Memory 管理的智能体。例如“用户输入 → 检索数据库 → 调用外部 API → 合成响应 → 写入日志”这种多步骤流程。
    • 构建自定义 RAG 服务:可插入自定义向量数据库、检索策略、重排序逻辑等。
    • 希望在 Java 应用中迁移或复制 LangChain Python 的工作流逻辑。

 参考:

https://www.cnblogs.com/duanxz/p/19088542

https://cloud.tencent.com/developer/article/2531640

Read more

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请 最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了! 今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。 传送门: * • OpenRouter提供的DeepSeek-R1-70B的大模型免费用 * • 获取各大人工智能AI工具通过API和KEY调用的方法 英伟达-Nvidia的免费API Key 说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。   注册账号 1.打开英伟达官网 https://build.nvidia.com 点击“Login”   2.输入邮箱 输入邮箱、密码   3.验

手把手教你在豆包上创建专属AI智能体

手把手教你在豆包上创建专属AI智能体

在当今数字化时代,AI智能体正逐渐融入我们的生活,为我们的创作带来了前所未有的便利。对于创作者而言,拥有一个属于自己的AI智能体,就如同拥有了一个得力的创作伙伴,能够极大地提升创作效率与质量。 一、AI智能体为个人创作赋能 AI智能体可以在多个方面助力个人创作。比如在写作领域,它能根据给定的主题生成大纲、提供丰富的素材,甚至协助完成初稿的创作;在设计方面,能依据设计风格和需求,快速生成创意草图或设计元素;在视频制作中,可帮忙进行脚本撰写、分镜头设计等工作。以写作为例,当你灵感枯竭时,向AI智能体描述大致方向,它能迅速给出新颖的观点和独特的表达方式,拓宽你的创作思路。 二、自制智能体效果欠佳?问题可能出在角色设定 许多小白用户在创建自己的AI智能体后,发现生成的内容不尽人意。其中一个关键原因往往是角色设定不够精准完善。AI智能体如同一个虚拟的工作人员,你需要清晰明确地告诉它“你是谁”“你能做什么”“你该怎么做”。如果角色设定模糊,智能体就无法准确理解你的意图,自然难以生成符合期望的内容。例如,若要创建一个协助绘画的智能体,仅仅说“你帮我画画”是远远不够的,需要详细说明绘画风格

保姆级教程|零代码用Coze(扣子)手搓一个AI智能体,看这篇就够了(建议收藏)

保姆级教程|零代码用Coze(扣子)手搓一个AI智能体,看这篇就够了(建议收藏)

💡 前言 最近很多粉丝在后台问我:“现在AI这么火,我想拥有一个自己专属的AI助手,但不会写代码怎么办?” 其实,现在的AI开发门槛已经降到了地板级!今天要给大家安利的这个神器——Coze(扣子),是由字节跳动推出的新一代一站式AI Bot开发平台。不管你是技术小白还是运营大神,只需10分钟,你就能通过“拖拉拽”的方式,搭建出一个比ChatGPT更懂你的智能体。 今天这篇实战教程,我将手把手带大家搭建一个**“全能型智能助手”**,流程超详细,全程无废话,建议先收藏再学习!👇 一、 什么是AI智能体(Agent)? 简单来说,以前我们用AI(如ChatGPT),是“问它问题,它回答你”。 而AI智能体(Agent),是大脑(大模型)+ 手脚(工具/插件)+ 记忆(数据库)”的结合体。它不仅能聊天,还能帮你联网搜新闻、画图、预测股票、甚至自动写飞书文档。 二、 0基础搭建实战(

『AI开发工具』Pencil.dev:AI 时代开发者必备的设计工具,从安装到实战教学

『AI开发工具』Pencil.dev:AI 时代开发者必备的设计工具,从安装到实战教学

📣读完这篇文章里你能收获到 1. 📁 掌握Pencil.dev的核心理念与适用场景 2. 🐍 完成Pencil.dev的完整安装与配置流程 3. 🌐 通过实战案例学习从设计到生产代码的完整工作流 4. 🖥️ 对比传统开发流程与Pencil.dev新流程的效率差异 文章目录 * 前言 * 一、核心概念与环境准备 * 1.1 Pencil.dev是什么? * 1.2 解决的核心问题 * 1.3 适用人群 * 1.4 环境要求 * 二、安装配置步骤 * 2.1 安装VS Code扩展 * 2.1.1 打开插件商店搜索Pencil安装 * 2.1.2 查看MCP自动安装 * 2.2 注册账户 * 2.3 验证MCP配置 * 2.