LangChain-Chatchat Windows 本地部署指南
基础环境准备
本文介绍在 Windows 环境下部署 LangChain-Chatchat 的完整流程。建议系统版本为 Windows 10 专业版 22H2 或更高。
硬件与软件要求
- 操作系统:Windows 10/11
- Python 版本:推荐 Python 3.10(需与项目依赖兼容)
- CUDA 版本:根据显卡驱动选择,如 CUDA 11.8
- Conda 管理工具:推荐使用 Miniconda3 进行环境隔离
- 硬件配置:建议配备 NVIDIA 显卡(如 RTX 3060 及以上),显存至少 6GB,内存 16GB 以上
安装依赖
创建 Conda 环境
使用 conda 创建并激活独立环境,避免污染全局 Python 环境。
conda create -n Langchain-Chatchat python=3.10
conda activate Langchain-Chatchat
拉取代码仓库
从 GitHub 克隆官方仓库。
git clone https://github.com/chatchat-space/Langchain-Chatchat.git
cd Langchain-Chatchat
安装依赖包
默认依赖包含基本运行环境(FAISS 向量库)。如需使用 Milvus、PG_Vector 等外部向量库,请修改 requirements.txt 取消相应注释后再安装。
pip install -r requirements.txt
按需安装模式
本项目架构分为 LLM 服务、API 服务和 WebUI 服务,可根据实际需求精简安装。
- 仅运行 LLM 和 API 服务:
pip install -r requirements_api.txt
- 仅运行 WebUI 服务:
pip install -r requirements_webui.txt
注意:使用
langchain.document_loaders.UnstructuredFileLoader加载.docx等非结构化文件时,可能需要额外安装相关解析库,请参考官方文档补充依赖。
下载模型
模型选择
LangChain-Chatchat 支持多种开源 LLM 与 Embedding 模型。若使用在线 LLM 服务(如 OpenAI API),可跳过本地模型下载步骤。
对于本地离线部署,需下载模型权重。常用模型可从 Hugging Face 获取。
以 RTX 3060 (6G 显存) 为例,推荐配置如下:
- LLM 模型:chatglm2-6b-int4
- Embedding 模型:moka-ai/m3e-base
下载命令
git clone https://huggingface.co/THUDM/chatglm2-6b-int4
git https://huggingface.co/moka-ai/m3e-base


