一、为什么要用 LangChain?
自从 OpenAI 推出 ChatGPT 之后,大模型能力迅速普及。越来越多的开发者开始将 LLM 接入业务系统,但很快会遇到三个现实问题:
- 模型接口不统一 —— 今天用 OpenAI,明天换国内模型,代码要大改
- Prompt 难管理 —— 提示词到处拼字符串,无法版本控制
- 业务流程复杂 —— RAG、Agent、多工具调用,全是胶水代码
这时候,LangChain 就登场了。
LangChain 本质是一套'面向大模型应用开发的工程化框架',它把模型调用、Prompt 管理、知识检索、流程编排、Agent 调度全部抽象成可组合模块,让你像搭积木一样构建 AI 应用。
二、LangChain 架构全景
LangChain 可以理解为五大核心能力层:

记住一句话:LangChain = LLM 调用标准化 + RAG 工程化 + Agent 自动化
三、模型封装:统一不同大模型接口
LangChain 最大的优势之一,是统一模型接口。
你可以在不修改业务逻辑的前提下,在不同模型之间切换:
- OpenAI GPT 系列
- Anthropic Claude
- 国内文心一言
- 本地模型(Ollama / Llama)
你只需要更换模型初始化方式,其余调用方式一致。
这在企业级项目里极其重要 —— 模型可替换性 = 风险可控性。
四、Prompt 工程:把提示词变成函数
很多开发者刚开始接触 LLM 时,喜欢直接写:
f"给我讲一个关于{topic}的笑话"
问题是:
- Prompt 无法版本管理
- 逻辑和提示词耦合
- 难以团队协作优化
LangChain 提供 PromptTemplate 和 ChatPromptTemplate:
- 支持变量占位
- 支持多角色(system / user / assistant)
- 支持文件加载
- 支持 Few-shot 示例
最佳实践是:Prompt 与代码彻底解耦,单独维护。
在中大型 AI 项目中,Prompt 甚至应该像 SQL 一样被当作核心资产管理。
五、RAG:给大模型注入私有知识
很多人说'模型不准',其实问题不在模型,而在没有给模型知识。
RAG(Retrieval Augmented Generation)就是解决方案。
LangChain 的 RAG 流程通常包括:
- 文档加载(PDF / Word / 网页 / 数据库)
- 文本切分
- 向量化
- 存入向量数据库(如 FAISS)
- 检索 + 生成回答
在这里,LangChain 和 LlamaIndex 经常被拿来对比。
简单总结:
- LangChain 强在流程编排 + Agent
- LlamaIndex 强在数据索引能力
很多项目会:
- 用 LlamaIndex 做数据层
- 用 LangChain 做应用层
六、LCEL:LangChain 的灵魂


