本地部署 MaxKB 知识库系统,支持多种大模型零代码集成
本文介绍如何在本地通过 Docker 部署 MaxKB 知识库系统。步骤包括安装 Docker Desktop 并启用 WSL 2,拉取 MaxKB 镜像并创建容器映射数据卷。随后配置本地 Ollama 大语言模型(如 Llama 3),在 MaxKB 中关联该模型。最后创建知识库文档并构建问答应用,实现基于本地文档的 AI 检索与对话,全程无需代码开发,数据保留在本地。

本文介绍如何在本地通过 Docker 部署 MaxKB 知识库系统。步骤包括安装 Docker Desktop 并启用 WSL 2,拉取 MaxKB 镜像并创建容器映射数据卷。随后配置本地 Ollama 大语言模型(如 Llama 3),在 MaxKB 中关联该模型。最后创建知识库文档并构建问答应用,实现基于本地文档的 AI 检索与对话,全程无需代码开发,数据保留在本地。

本文介绍如何在本地搭建自己的知识库问答系统 MaxKB。与其他问答知识库相比,它真正做到了开箱即用,零代码集成,支持 ChatGPT、百度千帆、Llama 2、Llama 3、通义千问等几十种大语言模型,操作界面简洁,小白也能快速上手。
注意: 在正式搭建知识库问答系统之前,请确保你的 Windows 系统已经升级到了专业版本,同时拥有一张独立的显卡。

在部署好 MaxKB 后,你可以添加个人笔记、工作文档,甚至在线网页到知识库里面,然后通过建立索引加上大语言模型对这些知识库的理解实现对文档内容的实时搜索与问答。所有的程序和文档都不会离开你的电脑,完全运行在本地。

到目前为止,MaxKB 目前在 Windows 系统上,只能通过 Docker 的镜像来部署,因此我们需要提前在电脑上安装 Docker。打开下面的 Docker 应用程序下载地址:
https://www.docker.com/products/docker-desktop/
在下载 Docker 后,在本地电脑上完成安装,注意在安装过程中,我们需要确保 "Use WSL 2 instead of Hyper-V (recommended)" 这一功能被启用,Docker 的具体安装过程可以参看下图所示的教程,必要时可以重启电脑。

在完成 Docker 的安装后,我们先打开终端,然后在终端输入下面的指令:
docker pull 1panel/maxkb
将 Docker 镜像下载到本地电脑上。

整个 MaxKB 的镜像大小为 2GB 左右。
打开 Docker 图形化界面,左侧菜单栏点击 Images 图标,然后你就会看到刚刚下载的 Docker 镜像,点击右侧的三角图标就可以重新创建容器了。

弹出的界面点击向下的箭头,展开选项,容器名称选择 MaxKB,第一个端口默认是 8080,第二个端口是在应用程序运行后需要访问的端口,这里我们也将其设置为 8080。

下一步,在本地设备上,创建一个存放知识库数据的文件夹,并记住这个文件夹的路径,随后回到刚才的 Docker 界面,找到 Volumes 项,在这里填入刚才的知识库路径,随后在 Container path 这一栏中填入'/var/lib/postgresql/data',最后点击 RUN 按钮,这样一个 MaxKB 容器就算是搭建完毕了!

我们用浏览器打开下面的网址:
http://127.0.0.1:8080
就可以启动了 MaxKB 应用界面了,不过这里需要提供登录账号和密码。

首次启动后需设置管理员账号和密码,具体默认凭据请参考官方文档。
初次登录到 MaxKB 后,需更改登录用户名和登录密码。完成修改后,导航到创建知识库页面,在这里,你需要为将创建的知识库命名,并输入几段简要内容进行描述,随后就是根据自己的需要创建自己的知识库系统,这里的知识库系统有两种,一种是用某个网站上作为建设知识库的数据来源,另外一种则是直接使用本地文本。

这里我们使用'通用型',也就是通过使用本地文本的方式来搭建知识库,点击进入'文档上传'界面,这里上传你的知识库数据,这些数据格式既可以是 txt,也可以是 word、pdf、ppt 等,在确定需要上传的文档后,点击右下角的'创建并导入'按钮。

在导入文档后,在'设置分段规则'这里我们选择'智能分段',随后点击开始导入按钮。

文档导入过程的时间长短取决于文档内容的多少,文档内容阅读导入时间就越长。
在 MaxKB 应用界面内,点击系统设置,然后再进入模型设置界面,在这里,你可以看到 MaxKB 目前能够支持的大语言模型,如百度千帆、Azure OpenAI、ChatGPT、ollama 等类型的模型。这里除了 ollama 可以本地使用外,其他平台的大语言模型均需要你提供对应的 API 密钥。

由于本期演示的主要内容就是通过本地启用本地大语言模型来构建自己的知识库系统,所以接下来我们探讨如何在本地部署并启用 Ollama 上的大语言模型,首先请确保你的设备上已经安装了 Ollama,如果还没有安装,那么可以通过下面的地址来下载 Ollama 本地安装包,然后快速完成安装。
https://ollama.com/download
你可以在 Ollama 的官方网站主页上查看可以在本地运行的大型语言模型的列表!

这里我们使用最近开源的大语言模型 llama3 来作为运行本地知识库的大语言模型,到 Ollama 模型列表界面,选中并打开 llama3 模型界面,在界面最底部找到下载 llama3 模型的命令。

如果你的设备显存足够大,那么你可以使用指令:
ollama run llama3:70b
来下载大语言模型 llama3,反之,你就使用参数较低的 8B 模型,指令如下:
ollama run llama3
在模型下载完毕后,你就可以在终端直接和本地部署的大语言模型 llama3 对话了,关闭界面后,下次使用只需再次运行命令即可!

回到 MaxKB 的系统设置界面内,点击模型设置,模型名称随便写,模型类型写大语言模型,模型列表这里,如果你使用 Ollama 下载了大语言模型,那么这里的列表中将会有相应的模型。

下面的 API 密钥随便写,API 域名则写入下面的内容:
http://host.docker.internal:11434
具体演示请见下图:

完成内容填写后,点击提交。
回到 MaxKB 主界面,点击应用,然后创建应用,随后依次填写应用名称、应用描述,AI 模型这里选中我们刚刚关联到 MaxKB 上的大语言模型,如下所示:

打开多轮对话,接下来需要将这个应用关联到前面我们创建的知识库。

在接下来的界面内,你就会看到我们先前创建本地问答系统知识库了,点击它使大语言模型和知识库相结合。

完成后,点击创建按钮即可,如下所示:

到这里,一个使用大语言模型理解本地文档的问答系统就算建好了,点击下图所示的按钮就打开对话页面。

MaxKB 使用演示情况如下图所示:


微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online