LangChain 实战:大模型对话记忆模块(附完整代码 + Web 案例)

目录

前言:为什么需要对话记忆?

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

1.2 LangChain 的价值:封装记忆与简化调用

二、LangChain 记忆模块核心组件

2.1 基础款:ConversationBufferMemory(完整记忆)

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

(2)ConversationSummaryMemory(总结记忆)

三、实战 1:LangChain 记忆链(ConversationChain)

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

4.1 项目结构

4.2 后端逻辑(scripts.py)

4.3 前端逻辑(app.py)

4.4 运行应用

五、学习总结 & 避坑指南

5.1 核心知识点总结

5.2 避坑指南

最后


前言:为什么需要对话记忆?

日常使用豆包、ChatGPT 等 AI 应用时,我们习以为常的「上下文记忆」功能(比如问完 “林俊杰是谁” 再问 “他的代表作”,AI 能精准理解),其实并非大模型原生自带 —— 直接调用大模型 API 时,每次请求都是独立的,模型只会基于当前输入的 Token 逐个预测回复,完全没有 “记忆” 能力,返回的也是包含原始格式的完整响应。

LangChain 作为大模型应用开发的核心框架,已经帮我们封装了对话记忆、Prompt 模板、链式调用等高频功能,无需手动解析原始 API 的复杂输出,也不用自己拼接上下文。

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

直接调用大模型 API(即使是通义千问等兼容 OpenAI 接口的模型),每次请求都是 “一次性” 的,模型无法关联历史对话:

from openai import OpenAI import os # 初始化客户端(对接阿里云通义千问) client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) # 第一次提问:林俊杰是谁 completion1 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"林俊杰是谁?"}] ) print("第一轮回复:", completion1.choices[0].message.content) # 第二次提问:他有哪些代表作(无上下文,模型无法识别"他") completion2 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"他有哪些代表作?"}] ) print("第二轮回复:", completion2.choices[0].message.content) 

输出结果:第二轮回复会反问 “你说的他是谁?”,因为模型没有历史对话的记忆。

1.2 LangChain 的价值:封装记忆与简化调用

LangChain 的核心价值在于:

  • 封装对话记忆模块,无需手动拼接上下文;
  • 统一不同大模型的调用方式(OpenAI / 通义千问 / 讯飞等);
  • 提供链式调用能力,串联 “记忆→Prompt→模型→输出” 全流程;
  • 自动处理响应格式,直接返回可读的回复内容。

二、LangChain 记忆模块核心组件

LangChain 提供了多种记忆类型,适配不同场景,核心均基于ConversationBufferMemory扩展:

记忆类型核心逻辑适用场景
ConversationBufferMemory保存所有对话历史,无长度限制短对话、需要完整上下文的场景
ConversationBufferWindowMemory只保存最近k轮对话只需要短期记忆、节省 Token 的场景
ConversationSummaryMemory将对话历史总结成文本长对话、需要压缩上下文的场景
ConversationSummaryBufferMemory短对话保留原文,超长部分总结兼顾细节和长度的长对话场景
ConversationTokenBufferMemory按 Token 数限制对话长度严格控制上下文 Token 消耗的场景

2.1 基础款:ConversationBufferMemory(完整记忆)

最核心的记忆组件,保存所有对话历史,是其他记忆类型的基础:

from langchain.memory import ConversationBufferMemory # 初始化记忆(return_messages=True:以消息对象存储,更易复用) memory = ConversationBufferMemory(return_messages=True) # 保存第一轮对话 memory.save_context({"input": "我的名字是陆天宇"}, {"output": "你好,陆天宇!"}) # 保存第二轮对话 memory.save_context({"input": "我是AI开发者"}, {"output": "太酷了!我们是同行~"}) # 加载记忆(查看历史对话) print("记忆中的历史对话:") print(memory.load_memory_variables({})) 

输出结果

记忆中的历史对话: {'history': [HumanMessage(content='我的名字是陆天宇'), AIMessage(content='你好,陆天宇!'), HumanMessage(content='我是AI开发者'), AIMessage(content='太酷了!我们是同行~')]} 

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

只保留最近k轮对话,避免上下文过长:

from langchain.memory import ConversationBufferWindowMemory # k=1:只保留最近1轮对话 memory = ConversationBufferWindowMemory(k=1, return_messages=True) memory.save_context({"input": "名字是陆天宇"}, {"output": "你好"}) memory.save_context({"input": "是AI开发者"}, {"output": "同行"}) # 加载记忆(仅保留最后1轮) print(memory.load_memory_variables({})) # 输出:{'history': [HumanMessage(content='是AI开发者'), AIMessage(content='同行')]} 
(2)ConversationSummaryMemory(总结记忆)

将长对话总结为文本,大幅节省 Token:

from langchain.memory import ConversationSummaryMemory from langchain_openai import ChatOpenAI import os # 初始化模型(用于总结对话) model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 初始化总结记忆 memory = ConversationSummaryMemory(llm=model, return_messages=True) memory.save_context({"input": "名字是陆天宇,是AI开发者,专注NLP方向"}, {"output": "记住了你的信息~"}) # 加载记忆(已自动总结) print(memory.load_memory_variables({})) # 输出:{'history': [SystemMessage(content='陆天宇介绍自己是专注NLP方向的AI开发者,AI表示记住了相关信息。')]} 

三、实战 1:LangChain 记忆链(ConversationChain)

ConversationChain是 LangChain 封装的 “记忆 + 模型” 组合链,无需手动保存 / 加载记忆,自动处理上下文:

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI from langchain.memory import ConversationBufferMemory import os # 1. 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 2. 初始化记忆 memory = ConversationBufferMemory(return_messages=True) # 3. 创建记忆链(自动关联模型和记忆) chain = ConversationChain(llm=model, memory=memory) # 4. 第一轮对话 resp1 = chain.invoke({"input": "我的名字是陆天宇"}) print("AI回复1:", resp1["response"]) # 5. 第二轮对话(带上下文) resp2 = chain.invoke({"input": "你知道我的名字吗?"}) print("AI回复2:", resp2["response"]) 

输出结果

AI回复1: 你好,陆天宇!很高兴认识你~ AI回复2: 当然知道啦,你的名字是陆天宇呀 😊 

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

基于 Streamlit 快速实现带记忆的聊天界面,模仿 ChatGPT 交互:

4.1 项目结构

chat-app/ ├── app.py # 前端页面逻辑 └── scripts.py # 后端模型调用逻辑 

4.2 后端逻辑(scripts.py)

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI def get_chat_response(prompt, memory, api_key): # 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", openai_api_key=api_key, openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 创建记忆链 chain = ConversationChain(llm=model, memory=memory) # 调用模型 response = chain.invoke({"input": prompt}) return response["response"] 

4.3 前端逻辑(app.py)

import streamlit as st from langchain.memory import ConversationBufferMemory from scripts import get_chat_response # 页面配置 st.title("💬 带记忆的AI聊天助手") st.sidebar.title("配置") api_key = st.sidebar.text_input("阿里云API Key", type="password") # 初始化会话状态(保存记忆和消息) if "memory" not in st.session_state: st.session_state["memory"] = ConversationBufferMemory(return_messages=True) st.session_state["messages"] = [{"role": "ai", "content": "你好,我是你的AI助手~"}] # 渲染历史消息 for msg in st.session_state["messages"]: st.chat_message(msg["role"]).write(msg["content"]) # 处理用户输入 prompt = st.chat_input("请输入你的问题...") if prompt: if not api_key: st.warning("请先输入API Key!") st.stop() # 添加用户消息 st.session_state["messages"].append({"role": "human", "content": prompt}) st.chat_message("human").write(prompt) # 调用AI回复 with st.spinner("AI思考中..."): response = get_chat_response(prompt, st.session_state["memory"], api_key) # 添加AI消息 st.session_state["messages"].append({"role": "ai", "content": response}) st.chat_message("ai").write(response) 

4.4 运行应用

# 安装依赖 pip install streamlit langchain langchain-openai # 运行应用 streamlit run app.py 

运行后访问http://localhost:8501,即可体验带上下文记忆的聊天界面。

五、学习总结 & 避坑指南

5.1 核心知识点总结

  1. 记忆本质:LangChain 的记忆模块本质是 “保存对话历史→拼接上下文→传给模型” 的封装,核心解决大模型 “无状态” 的问题;
  2. 核心组件ConversationBufferMemory是基础,其他记忆类型均为其优化(窗口、总结、Token 限制);
  3. 链式调用ConversationChain自动关联 “记忆 + 模型”,无需手动保存 / 加载记忆,是最常用的简化方式;
  4. 工程化:结合 Streamlit 可快速实现可视化应用,会话状态(st.session_state)是保存跨刷新数据的核心。

5.2 避坑指南

  1. API Key 问题:避免硬编码 API Key,优先使用环境变量(os.getenv)或前端输入;
  2. 模型兼容问题:调用通义千问等非 OpenAI 模型时,需指定openai_api_base,且模型名称要准确(如qwen3.5-plus);
  3. Token 计数报错:使用ConversationSummaryBufferMemory/ConversationTokenBufferMemory时,需自定义get_num_tokens_from_messages函数(解决NotImplementedError);
  4. 会话状态丢失:Streamlit 应用中,记忆和消息必须存在st.session_state中,否则刷新页面会丢失历史。

最后

LangChain 的记忆模块是大模型应用开发的核心基础,掌握不同记忆类型的适用场景,能大幅提升 AI 应用的交互体验。从手动实现记忆到封装链,再到前端可视化,一套完整的学习路径能帮助我们快速落地实际应用。后续可进一步学习记忆的持久化(保存到数据库)、多轮对话总结优化等进阶内容。

Read more

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体 灵珠平台简介 okid 自研 AI 开发平台,基于多模态大模型与轻量化架构,打造零门槛、全栈化 AI 开发体系。平台提供可视化编排、预置能力组件,支持原型到云端、端侧一站式敏捷部署,并深度适配 Rokid Glasses 智能眼镜,通过专属硬件接口与低功耗优化,实现 AI 应用高效端侧落地,助力开发者快速打造视觉识别、语音交互等穿戴式 AI 应用,拓展 AI + 物理世界的交互边界可视化编排工具,拖拽式快速搭建应用预置丰富能力组件库,涵盖对话引擎、视觉识别等核心模块支持从原型设计到云端、端侧的一站式敏捷部署提供设备专属适配接口,实现硬件深度协同搭载低功耗运行优化方案,保障端侧持久稳定运行 实战:搭建旅游类AR智能体 1、进入灵珠平台 登录灵珠平台后,你将看到简洁直观的工作台界面 点击创建智能体按钮,

宇树G1机器人强化学习训练完整实战教程

宇树G1机器人强化学习训练完整实战教程

0. 前言 人形机器人的运动控制一直是机器人领域的重要挑战,而强化学习为解决这一问题提供了强有力的工具。本教程将基于宇树G1人形机器人,从基础的强化学习环境搭建开始,逐步深入到高自由度模型的训练配置、奖励函数设计与优化,最终实现复杂动作的训练控制。作者看到一个很棒的系列,所以针对性的对文章内容进行了整理和二次理解,方便大家更好的阅读《不同自由度的宇树G1机器人强化学习训练配置及运行实战 + RSL-RL代码库问题修复》、《宇树G1机器人强化学习训练奖励函数代码架构 + 创建新的奖励函数(1)》、《RL指标分析与看板应用 — 宇树G1机器人高自由度模型强化学习训练实战(3)》、《调参解析 — 宇树G1机器人高自由度模型强化学习训练实战(4)》、《舞蹈训练?手撕奖励函数 — 宇树G1机器人高自由度模型强化学习训练实战(5)》。 1. 强化学习训练环境配置 1.1 基础环境搭建 宇树机器人的强化学习训练基于Isaac Gym物理仿真环境和RSL-RL强化学习框架。首先需要确保这两个核心组件正确安装和配置。 在开始训练之前,我们通过简单的命令来启动12自由度G1机器人的基础训练:

Seedance 2.0 × 飞书机器人深度集成:从API鉴权到上下文感知对话,97%开发者忽略的4个关键配置陷阱

第一章:Seedance 2.0 × 飞书机器人深度集成:从API鉴权到上下文感知对话,97%开发者忽略的4个关键配置陷阱 飞书机器人Token与Encrypt Key的双向校验陷阱 飞书机器人启用「事件订阅」后,必须同时验证 token(用于签名比对)与 encrypt_key(用于消息解密),但多数开发者仅配置了前者。若 encrypt_key 为空或未在服务端正确初始化,飞书将返回 400 Bad Request,且错误日志不显式提示原因。 // Go 示例:初始化飞书加解密器(需显式传入 encrypt_key) cipher, err := larksuite.NewAesCipher("your_encrypt_key_here") // ⚠️ 此处不可省略 if err != nil

零成本搭建飞书机器人:手把手教你用Webhook实现高效消息推送

1. 为什么你需要一个飞书机器人? 在日常工作中,我们经常需要处理各种通知需求。比如系统报警、任务提醒、审批结果通知等等。传统的解决方案包括短信、邮件或者第三方推送平台,但这些方式要么成本高,要么实时性差。飞书机器人提供了一种零成本、高效率的替代方案。 我去年负责的一个ERP系统升级项目就遇到了这个问题。当时我们需要在关键业务流程节点给不同部门的同事发送实时通知。如果使用短信,按照每天200条计算,一个月就要花费上千元。后来我们改用飞书机器人,不仅完全免费,还能实现更丰富的消息格式和精准的@提醒功能。 飞书机器人本质上是一个自动化程序,它通过Webhook技术接收外部系统的消息,并转发到指定的飞书群聊中。这种机制特别适合企业内部系统与飞书之间的集成,比如: * 运维报警通知 * 审批流程提醒 * 业务系统状态更新 * 日报/周报自动推送 * 数据监控预警 2. 5分钟快速创建你的第一个机器人 创建飞书机器人非常简单,不需要任何开发经验。下面我以电脑端操作为例,手把手带你完成整个过程。 首先打开飞书客户端,进入你想要添加机器人的群聊。点击右上角的"..."菜单,