FastGPT:基于 LLM 的开源 AI 知识库问答系统
在使用 AI 大模型产品时,我们通常将其作为搜索引擎使用,未能充分发挥其价值。主要原因包括:
- 标准回答往往需要多轮对话才能产生。
- 无法获取实时信息或企业内部资料。
- 单纯通过对话完成任务效率较低。
FastGPT 是一款基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用、RAG 检索及可视化 AI 工作流编排能力。该项目在 GitHub 上已拥有超过 14.3k Star。
在线使用
FastGPT 目前用户量已超过 9W+。点击「开始使用」进入登录页面,支持 Google 和 Github 一键登录。登录后默认进入应用页面。
在 FastGPT 中,创建应用是使用 AI 的前提。点击右上角的「+ 新建」按钮来创建一个应用。创建对话框中有四种类型的应用供选择:
- 简易模版:一个极其简单的 AI 应用,可以绑定知识库或工具。
- 对话引导 + 变量:可以在对话开始发送一段提示,或者让用户填写一些内容,作为本次对话的变量。
- 知识库 + 对话引导:每次提问时进行一次知识库搜索,将搜索结果注入 LLM 模型进行参考回答。
- 问题分类 + 知识库:先对用户的问题进行分类,再根据不同类型问题执行不同的操作。
我们选择简易模版创建一个最基础的应用。这个应用只拥有 AI 对话功能,且输出的内容来源于选择的 AI 模型(默认是 FastAI-3.5)。
在左侧菜单中的「发布应用」里,可以将该应用通过免登录窗口的方式分享给其他用户使用。只需复制生成的链接即可分享。
对于普通用户,这基本满足日常需求。但对于团队或企业,数据内部化至关重要。使用在线版可能存在数据泄漏风险,此时可以选择本地部署方式配合本地 AI 大模型来实现完全私有化的 AI 智能应用。
Docker Compose 快速部署
1. 下载 docker-compose.yml
手动创建一个目录,并下载对应版本的 docker-compose.yml 文件(注意,不同向量库版本的文件不一样)。
2. 修改环境变量
FastGPT 主要有 PgVector、Milvus 和 Zilliz 三个版本。如果机器配置不高,可选择默认的 PgVector 版本,无需额外修改配置。
3. 启动容器
在 docker-compose.yml 同级目录下执行以下命令。请确保 docker-compose 版本最好在 2.17 以上,否则可能无法执行自动化命令。
docker-compose up -d
sleep 10
docker restart oneapi
4. 在 OneAPI 中添加模型
OneAPI 用于管理模型接口,需在此处配置好可用的 AI 模型。
5. 访问 FastGPT
通过 IP:3000 的方式访问部署好的应用。登录用户名为 root,密码为 docker-compose.yml 环境变量里设置的 DEFAULT_ROOT_PSW。
6. 添加知识库
登录之后可以通过添加知识库的方式,将内部的一些资料上传:
- 新建一个通用知识库。
- 在知识库中导入文件 - 文本数据集。
- 回到应用中添加对应的知识库即可。
再次对话时,就会优先从知识库中进行检索。
PS:AI 模型这里我们可以通过部署本地大模型(比如 Ollama)+ One API + FastGPT 实现完全私有化的应用。
通过上述步骤,您可以快速搭建属于自己的私有化 AI 知识库系统,保障数据安全的同时享受大模型带来的便利。


