LangChain 实战:大模型对话记忆模块(附完整代码 + Web 案例)

目录

前言:为什么需要对话记忆?

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

1.2 LangChain 的价值:封装记忆与简化调用

二、LangChain 记忆模块核心组件

2.1 基础款:ConversationBufferMemory(完整记忆)

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

(2)ConversationSummaryMemory(总结记忆)

三、实战 1:LangChain 记忆链(ConversationChain)

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

4.1 项目结构

4.2 后端逻辑(scripts.py)

4.3 前端逻辑(app.py)

4.4 运行应用

五、学习总结 & 避坑指南

5.1 核心知识点总结

5.2 避坑指南

最后


前言:为什么需要对话记忆?

日常使用豆包、ChatGPT 等 AI 应用时,我们习以为常的「上下文记忆」功能(比如问完 “林俊杰是谁” 再问 “他的代表作”,AI 能精准理解),其实并非大模型原生自带 —— 直接调用大模型 API 时,每次请求都是独立的,模型只会基于当前输入的 Token 逐个预测回复,完全没有 “记忆” 能力,返回的也是包含原始格式的完整响应。

LangChain 作为大模型应用开发的核心框架,已经帮我们封装了对话记忆、Prompt 模板、链式调用等高频功能,无需手动解析原始 API 的复杂输出,也不用自己拼接上下文。

一、核心认知:原始 API vs LangChain 封装

1.1 原生 API 调用的痛点(无记忆)

直接调用大模型 API(即使是通义千问等兼容 OpenAI 接口的模型),每次请求都是 “一次性” 的,模型无法关联历史对话:

from openai import OpenAI import os # 初始化客户端(对接阿里云通义千问) client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", ) # 第一次提问:林俊杰是谁 completion1 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"林俊杰是谁?"}] ) print("第一轮回复:", completion1.choices[0].message.content) # 第二次提问:他有哪些代表作(无上下文,模型无法识别"他") completion2 = client.chat.completions.create( model="qwen3.5-plus", messages=[{"role":"user","content":"他有哪些代表作?"}] ) print("第二轮回复:", completion2.choices[0].message.content) 

输出结果:第二轮回复会反问 “你说的他是谁?”,因为模型没有历史对话的记忆。

1.2 LangChain 的价值:封装记忆与简化调用

LangChain 的核心价值在于:

  • 封装对话记忆模块,无需手动拼接上下文;
  • 统一不同大模型的调用方式(OpenAI / 通义千问 / 讯飞等);
  • 提供链式调用能力,串联 “记忆→Prompt→模型→输出” 全流程;
  • 自动处理响应格式,直接返回可读的回复内容。

二、LangChain 记忆模块核心组件

LangChain 提供了多种记忆类型,适配不同场景,核心均基于ConversationBufferMemory扩展:

记忆类型核心逻辑适用场景
ConversationBufferMemory保存所有对话历史,无长度限制短对话、需要完整上下文的场景
ConversationBufferWindowMemory只保存最近k轮对话只需要短期记忆、节省 Token 的场景
ConversationSummaryMemory将对话历史总结成文本长对话、需要压缩上下文的场景
ConversationSummaryBufferMemory短对话保留原文,超长部分总结兼顾细节和长度的长对话场景
ConversationTokenBufferMemory按 Token 数限制对话长度严格控制上下文 Token 消耗的场景

2.1 基础款:ConversationBufferMemory(完整记忆)

最核心的记忆组件,保存所有对话历史,是其他记忆类型的基础:

from langchain.memory import ConversationBufferMemory # 初始化记忆(return_messages=True:以消息对象存储,更易复用) memory = ConversationBufferMemory(return_messages=True) # 保存第一轮对话 memory.save_context({"input": "我的名字是陆天宇"}, {"output": "你好,陆天宇!"}) # 保存第二轮对话 memory.save_context({"input": "我是AI开发者"}, {"output": "太酷了!我们是同行~"}) # 加载记忆(查看历史对话) print("记忆中的历史对话:") print(memory.load_memory_variables({})) 

输出结果

记忆中的历史对话: {'history': [HumanMessage(content='我的名字是陆天宇'), AIMessage(content='你好,陆天宇!'), HumanMessage(content='我是AI开发者'), AIMessage(content='太酷了!我们是同行~')]} 

2.2 进阶款:窗口记忆与总结记忆

(1)ConversationBufferWindowMemory(窗口记忆)

只保留最近k轮对话,避免上下文过长:

from langchain.memory import ConversationBufferWindowMemory # k=1:只保留最近1轮对话 memory = ConversationBufferWindowMemory(k=1, return_messages=True) memory.save_context({"input": "名字是陆天宇"}, {"output": "你好"}) memory.save_context({"input": "是AI开发者"}, {"output": "同行"}) # 加载记忆(仅保留最后1轮) print(memory.load_memory_variables({})) # 输出:{'history': [HumanMessage(content='是AI开发者'), AIMessage(content='同行')]} 
(2)ConversationSummaryMemory(总结记忆)

将长对话总结为文本,大幅节省 Token:

from langchain.memory import ConversationSummaryMemory from langchain_openai import ChatOpenAI import os # 初始化模型(用于总结对话) model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 初始化总结记忆 memory = ConversationSummaryMemory(llm=model, return_messages=True) memory.save_context({"input": "名字是陆天宇,是AI开发者,专注NLP方向"}, {"output": "记住了你的信息~"}) # 加载记忆(已自动总结) print(memory.load_memory_variables({})) # 输出:{'history': [SystemMessage(content='陆天宇介绍自己是专注NLP方向的AI开发者,AI表示记住了相关信息。')]} 

三、实战 1:LangChain 记忆链(ConversationChain)

ConversationChain是 LangChain 封装的 “记忆 + 模型” 组合链,无需手动保存 / 加载记忆,自动处理上下文:

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI from langchain.memory import ConversationBufferMemory import os # 1. 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", api_key=os.getenv("DASHSCOPE_API_KEY"), openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 2. 初始化记忆 memory = ConversationBufferMemory(return_messages=True) # 3. 创建记忆链(自动关联模型和记忆) chain = ConversationChain(llm=model, memory=memory) # 4. 第一轮对话 resp1 = chain.invoke({"input": "我的名字是陆天宇"}) print("AI回复1:", resp1["response"]) # 5. 第二轮对话(带上下文) resp2 = chain.invoke({"input": "你知道我的名字吗?"}) print("AI回复2:", resp2["response"]) 

输出结果

AI回复1: 你好,陆天宇!很高兴认识你~ AI回复2: 当然知道啦,你的名字是陆天宇呀 😊 

四、实战 2:Streamlit 搭建带记忆的聊天 Web 应用

基于 Streamlit 快速实现带记忆的聊天界面,模仿 ChatGPT 交互:

4.1 项目结构

chat-app/ ├── app.py # 前端页面逻辑 └── scripts.py # 后端模型调用逻辑 

4.2 后端逻辑(scripts.py)

from langchain.chains import ConversationChain from langchain_openai import ChatOpenAI def get_chat_response(prompt, memory, api_key): # 初始化模型 model = ChatOpenAI( model="qwen3.5-plus", openai_api_key=api_key, openai_api_base="https://dashscope.aliyuncs.com/compatible-mode/v1" ) # 创建记忆链 chain = ConversationChain(llm=model, memory=memory) # 调用模型 response = chain.invoke({"input": prompt}) return response["response"] 

4.3 前端逻辑(app.py)

import streamlit as st from langchain.memory import ConversationBufferMemory from scripts import get_chat_response # 页面配置 st.title("💬 带记忆的AI聊天助手") st.sidebar.title("配置") api_key = st.sidebar.text_input("阿里云API Key", type="password") # 初始化会话状态(保存记忆和消息) if "memory" not in st.session_state: st.session_state["memory"] = ConversationBufferMemory(return_messages=True) st.session_state["messages"] = [{"role": "ai", "content": "你好,我是你的AI助手~"}] # 渲染历史消息 for msg in st.session_state["messages"]: st.chat_message(msg["role"]).write(msg["content"]) # 处理用户输入 prompt = st.chat_input("请输入你的问题...") if prompt: if not api_key: st.warning("请先输入API Key!") st.stop() # 添加用户消息 st.session_state["messages"].append({"role": "human", "content": prompt}) st.chat_message("human").write(prompt) # 调用AI回复 with st.spinner("AI思考中..."): response = get_chat_response(prompt, st.session_state["memory"], api_key) # 添加AI消息 st.session_state["messages"].append({"role": "ai", "content": response}) st.chat_message("ai").write(response) 

4.4 运行应用

# 安装依赖 pip install streamlit langchain langchain-openai # 运行应用 streamlit run app.py 

运行后访问http://localhost:8501,即可体验带上下文记忆的聊天界面。

五、学习总结 & 避坑指南

5.1 核心知识点总结

  1. 记忆本质:LangChain 的记忆模块本质是 “保存对话历史→拼接上下文→传给模型” 的封装,核心解决大模型 “无状态” 的问题;
  2. 核心组件ConversationBufferMemory是基础,其他记忆类型均为其优化(窗口、总结、Token 限制);
  3. 链式调用ConversationChain自动关联 “记忆 + 模型”,无需手动保存 / 加载记忆,是最常用的简化方式;
  4. 工程化:结合 Streamlit 可快速实现可视化应用,会话状态(st.session_state)是保存跨刷新数据的核心。

5.2 避坑指南

  1. API Key 问题:避免硬编码 API Key,优先使用环境变量(os.getenv)或前端输入;
  2. 模型兼容问题:调用通义千问等非 OpenAI 模型时,需指定openai_api_base,且模型名称要准确(如qwen3.5-plus);
  3. Token 计数报错:使用ConversationSummaryBufferMemory/ConversationTokenBufferMemory时,需自定义get_num_tokens_from_messages函数(解决NotImplementedError);
  4. 会话状态丢失:Streamlit 应用中,记忆和消息必须存在st.session_state中,否则刷新页面会丢失历史。

最后

LangChain 的记忆模块是大模型应用开发的核心基础,掌握不同记忆类型的适用场景,能大幅提升 AI 应用的交互体验。从手动实现记忆到封装链,再到前端可视化,一套完整的学习路径能帮助我们快速落地实际应用。后续可进一步学习记忆的持久化(保存到数据库)、多轮对话总结优化等进阶内容。

Read more

Java Web HTML问卷调查系统系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

Java Web HTML问卷调查系统系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

摘要 随着互联网技术的快速发展,在线问卷调查系统已成为企业、教育机构和政府部门收集数据的重要工具。传统的纸质问卷调查方式效率低下,数据统计和分析过程繁琐,而基于Web的问卷调查系统能够实现问卷的快速创建、分发和数据分析,显著提升工作效率。此外,现代用户对系统的交互体验和响应速度提出了更高要求,因此开发一个高效、稳定且用户友好的在线问卷调查系统具有重要的现实意义。关键词:问卷调查系统、Web应用、数据收集、效率提升、用户交互。 本系统采用前后端分离架构,后端基于SpringBoot2框架搭建,结合MyBatis-Plus实现高效数据库操作,MySQL8.0作为数据存储方案,确保系统的高性能和可扩展性。前端使用Vue3框架开发,利用其响应式特性和组件化设计提升用户体验。系统核心功能包括问卷创建、问题管理、用户权限控制、数据统计与可视化分析等,同时支持多终端适配,满足不同场景下的使用需求。关键词:SpringBoot2、Vue3、MyBatis-Plus、MySQL8.0、前后端分离、数据可视化。 数据表设计 问卷信息数据表 问卷信息数据表用于存储用户创建的问卷基本信息,包括标题、

Python爬虫实战:高效解析Web of Science文献数据并导出CSV

1. 从零开始:为什么科研人员需要掌握Python爬虫 如果你是一名研究生、博士生,或者正在从事学术研究,我猜你一定有过这样的经历:为了写一篇综述或者做文献计量分析,你需要手动从Web of Science(WoS)上,一篇一篇地复制粘贴文献的标题、作者、摘要、关键词、发表年份、期刊信息……这个过程不仅枯燥乏味,而且极其容易出错,复制到第50篇的时候,你可能已经头晕眼花,甚至怀疑人生了。我当年读博的时候,为了分析一个领域近十年的研究趋势,需要收集上千篇文献数据,手动操作几乎是不可能完成的任务。正是这种“痛点”,让我下定决心研究如何用技术解放双手。 Python爬虫,听起来像是程序员专属的高深技术,但其实它离我们科研人员并不遥远。简单来说,爬虫就是一个能自动访问网页、抓取并整理信息的程序。对于Web of Science这样的学术数据库,虽然它提供了强大的检索功能,但批量导出详细数据(尤其是摘要、作者机构等)到本地进行深度分析,往往需要付费或者功能受限。自己写一个爬虫,就成了最高效、最灵活的解决方案。它能让你在喝杯咖啡的功夫,

自动化打造信息影响力:用 Web Unlocker 和 n8n 打造你的自动化资讯系统

自动化打造信息影响力:用 Web Unlocker 和 n8n 打造你的自动化资讯系统

一、研究背景 在信息爆炸的时代,及时获取高质量行业资讯成为内容创作者、运营者以及研究者的刚需。无论是IT、AI领域的技术动态,还是招聘、人才市场的趋势新闻,第一时间掌握热点、总结观点并进行内容输出,正逐渐成为提升影响力与构建个人/组织品牌的关键手段。 为实现“日更内容”目标,很多人开始探索自动化的路径——使用爬虫工具定期抓取目标网站内容,借助 AI 模型自动生成摘要,再将结果推送至社群平台。这一流程的核心,是稳定、高效地获取网页数据,在实际操作中,却出现了很多问题: * 首先是出现了验证码,阻断自动化流程; * 紧接着是请求返回403 Forbidden,提示IP被封; * 最终是目标网站直接对我们常用IP段进行了临时封禁,哪怕切换机器或重启网络都无济于事。 按照检查方法,当处于非爬虫操作时,我们在F12控制台输入window.navigator.webdriver时,显示的是false,输入进去出现了刺眼的红色报错,而且显示也出现了True, “Failed to load resource: the server responded with

全网最牛批的前端面试八股文(最全)堪称2025最强!

全网最牛批的前端面试八股文(最全)堪称2025最强!

嗨害嗨 铁铁们 来了奥,秘制前端小面试它不就来了么,铁铁们是不是经常遇到这情况?技术栈整得明明白白,项目经验写得密密麻麻,一到面试官面前直接大脑宕机!面试官问你问题,你说:我不到啊。这好使吗,不好使,那感觉就像老八端着秘制小汉堡站在撤硕门口——进退两难啊! 所以很多前端铁子们技术不错,但面试时总差一口气。其实原因很简单——面试就像考试,不划重点真的会丢分!(每次准备面试跟高考一样) 我花了一周时间,把今年的八股都整全乎了,这你要是都会了,出去面试那不就是小卡拉米啊,直接给面试官惊鸿一瞥,必须把面试官头发给他拽掉,必须打他脸:往下看! 前端面试题及八股文完整版: https://github.com/encode-studio-fe/natural_traffic/wiki/scan_material9 💡 核心知识板块(按优先级排序) 1. JavaScript 灵魂拷问 * 作用域链:变量查找的“寻宝游戏” * 闭包:函数的小金库,私房钱存放处