LangChain 集成国产大模型指南
背景介绍
随着大语言模型(LLM)技术的快速发展,越来越多的开发者开始尝试将 LLM 集成到自己的应用中。然而,OpenAI 的 API 服务存在访问限制、费用较高以及网络延迟等问题。对于国内开发者而言,使用国产大模型不仅成本更低,而且网络访问更稳定,数据合规性也更好。
LangChain 作为一个强大的 LLM 应用开发框架,支持多种模型提供商。本文将详细介绍如何在 LangChain 中配置并调用国产大模型智谱 AI(Zhipu AI),实现从基础对话到高级功能的全流程开发。
环境准备
在开始之前,请确保您的开发环境满足以下要求:
- Python 环境:建议安装 Python 3.8 或更高版本。
- 包管理工具:确保已安装 pip。
- LangChain 库:需要安装
langchain-community和langchain-core。
安装依赖
打开终端或命令行,运行以下命令安装必要的库:
pip install langchain-community langchain-core
如果需要使用流式输出功能,可能还需要安装 tiktoken 用于 token 计数:
pip install tiktoken
获取 API 密钥
要调用智谱 AI 的接口,首先需要注册账号并获取 API Key。
- 访问智谱 AI 官网。
- 登录个人账号。
- 进入控制台,找到 API 密钥管理页面。
- 创建新的 API Key 并复制保存。
注意:API Key 属于敏感信息,切勿硬编码在代码中提交至公共仓库。建议使用环境变量进行管理。
基础对话实现
LangChain 提供了 ChatZhipuAI 类来封装与智谱 AI 的交互。以下是创建一个简单的聊天机器人实例的代码示例。
代码示例
from langchain_community.chat_models import ChatZhipuAI
from langchain_core.messages import AIMessage, HumanMessage, SystemMessage
import os
# 设置环境变量,避免硬编码
os.environ["ZHIPUAI_API_KEY"] = "your_api_key_here"
# 初始化模型
chat = ChatZhipuAI(
model="glm-4", # 指定使用的模型版本
temperature=0.5, # 控制输出的随机性,范围 0-1
)
# 构建消息列表
messages = [
SystemMessage(content="你的角色是一位诗人,请用诗歌风格回答。"),
HumanMessage(content="你的名字是什么?"),
]
# 发送请求并获取响应
response = chat.invoke(messages)
(response.content)


