国产开源企业级 AI 智能体平台 MaxKB 入门指南

MaxKB 是一个开源企业级 AI 知识库平台。
它的英文名叫"Max Knowledge Brain"——字面意思就是"最大知识大脑"。
国产开源企业级 AI 知识库平台 MaxKB 支持私有化部署与 RAG 问答系统构建。通过 Docker 快速安装,无需代码即可配置模型、创建知识库及编排智能体。文章涵盖从基础 RAG 到高级 Agent 的三层能力,对比 Dify 等框架优势,提供详细安装步骤与实战演示,帮助企业快速落地 AI 应用并实现数据自主可控。

MaxKB 是一个开源企业级 AI 知识库平台。
它的英文名叫"Max Knowledge Brain"——字面意思就是"最大知识大脑"。
核心作用是:帮助企业快速构建私有化的知识库、RAG 问答系统、以及 AI 应用。
从企业应用的角度,MaxKB 提供了三个层级的能力:
【第一层:基础——知识库+RAG 问答】
你上传公司文档 → MaxKB 自动分段、向量化、建索引
用户提问 → MaxKB 从知识库检索、生成答案
这是最核心的能力,也是最常用的。
【第二层:中级——工作流编排】
可以编排复杂的流程,比如:
用户问一个问题 → 自动查数据库 → 生成报告 → 发邮件
【第三层:高级——智能体 Agent】
Agent 会自主决策。
MaxKB 秉承的设计理念是:"开箱即用,伴随成长"。
这句话的意思是:
从初创到大企业,MaxKB 都能陪你走。
目前 MaxKB 在 GitHub 上已经有 2 万 +Star。这不是偶然。我认为有三个原因:
你在网上搜"LLM 应用框架",会看到 LangChain、LlamaIndex 这些名字。但它们有个致命的问题,开发难度大。
你如果用 LangChain 从零搭建一个知识库 RAG 系统,需要:
这一套流程下来,少说也要 2-4 周,还要 Python+ 前端两个角色。
MaxKB 的核心价值:把"AI 工程化"的所有痛点都打包解决了。它就像"LLM 应用界的 WordPress"——不用代码,也能快速搭建一个"企业级"的 AI 产品。
Dify 也是很好的开源平台,但定位不同:
我的建议:
在安装 MaxKB 之前,确认你有:
打开终端,执行:
docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/opt/maxkb 1panel/maxkb
参数详解:
等待 30-60 秒,然后执行:
docker ps | grep maxkb
如果能看到类似的输出,说明 MaxKB 已成功启动:
CONTAINER ID IMAGE STATUS PORTS
abc123def456 1panel/maxkb Up 2 minutes 0.0.0.0:8080->8080/tcp
离线安装,如果网络有问题的话,更建议使用离线安装。
以 root 用户通过 ssh 协议登录到部署服务器,对安装包进行解压:
tar -zxvf maxkb-v2.0.0-x86_64-offline-installer.tar.gz
MaxKB 安装目录、服务运行端口、数据库配置等信息可在安装包解压后中的 install.conf 文件进行配置。
# 基础配置
## 安装目录
MAXKB_BASE=/opt
## 服务端口
MAXKB_PORT=8080
## docker 网段设置
MAXKB_DOCKER_SUBNET=172.31.250.192/64
# 数据库配置
## 是否使用外部数据库
MAXKB_EXTERNAL_PGSQL=false
## 数据库地址
MAXKB_PGSQL_HOST=pgsql
## 数据库端口
MAXKB_PGSQL_PORT=5432
## 数据库库名
MAXKB_PGSQL_DB=maxkb
## 数据库用户名
MAXKB_PGSQL_USER=root
## 数据库密码
MAXKB_PGSQL_PASSWORD=Password123@postgres
# Redis 配置
## 是否使用外部 Redis
MAXKB_EXTERNAL_REDIS=false
## Redis 地址
REDIS_HOST=redis
## Redis 端口
REDIS_PORT=6379
## Redis 数据库
REDIS_DB=0
## Redis 密码
REDIS_PASSWORD=Password123@redis
# 镜像配置
## 镜像仓库
MAXKB_IMAGE_REPOSITORY=registry.fit2cloud.com/maxkb
## 镜像名称
MAXKB_IMAGE=maxkb
## 版本号
MAXKB_VERSION=v2.0.0
注意:
# 进入安装包解压缩后目录
cd maxkb-v2.0.0-x86_64-offline-installer
# 执行安装命令
bash install.sh
待所有容器状态显示为 healthy 后,即可通过浏览器访问地址 http://目标服务器 IP 地址:8080,并使用默认的管理员用户和密码登录 MaxKB。
用户名:admin
默认密码:MaxKB@123..
现在开始干活。我们的目标是:搭建一个"数据治理知识库 AI 助手",用真实的文档来做 RAG 问答。
进入 MaxKB 主界面后可以看到界面上方导航栏,包含智能体、知识库、工具、模型四大模块。
登录 MaxKB 系统后,打开【模型】页面,在供应商列表中选择【阿里云百炼】,然后点击【添加模型】,进入模型配置表单配置参数如下:
我们这里添加一下 DeepSeek 的模型。
打开【知识库】页面,点击【创建知识库】,输入知识库名称、知识库描述、选择向量模型,并设置知识库类型为通用型,然后将离线文档通过拖拽方式或选择文件上传方式进行上传。
上传文档要求:
文档规范建议:
MaxKB 支持智能分段和高级分段两种分段方式。
导入时添加分段标题为关联问题,勾选后会把所有分段的标题设置为分段的关联问题。
点击【创建并导入】后,系统后台会对文档进行自动分段、存储、向量化处理操作,执行完成后在知识库文档列表中各个文件状态显示为【成功】。
这样一个基本的知识库就搭建完成,可以在这里继续做一些测试,反复调整分段等设置,直到满足你的要求。
点击上方的智能体按钮,点击【创建】,选择智能体类型,输入智能体名称后点击【创建】。
智能体创建完成,进入配置智能体的设置页面,左侧为智能体信息,右侧为调试预览界面。
名称:用户提问时对话框的标题和名字。比如,数据治理 AI 助手。
描述:对智能体场景及用途的描述。
AI 模型:在【系统设置】-【模型管理】中添加的大语言模型。我们添加刚刚的 DeepSeek。
系统提示词:大语言模型回答的角色或身份设定。
用户提示词:引导模型生成特定输出的详细描述。提示词可以引用前置节点的参数输出,如可以引用前置知识库检索的检索结果和开始节点的问题变量。
历史聊天记录:大模型提交当前会话中最后 N 条对话内容,如果为 0,则仅向大模型提交当前问题。
知识库,关联刚刚的知识库:
用户提示词:引导模型生成特定输出的详细描述。提示词可以引用前置节点的参数输出,如可以引用前置知识库检索的检索结果和开始节点的问题变量。
关联知识库:用户提问后将在关联的知识库中检索分段。
后面还有一些其他的设置。
智能体信息设置完成后,可以在右侧调试预览中进行测试验证,调试预览中的提问内容不计入对话日志。
回到智能体管理页面,可以看到一些更详细的设置。
保存设置并发布后,在智能体列表页面的概览页面点击【去对话】或在浏览器中复制公开访问链接进入问答页面进行提问。
MaxKB 入门完成了,我们掌握了如下内容。
但是,MaxKB 还有更多的功能值得我们去研究,而我们的 AI 工程化之路,也才刚刚开始。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online