1Panel、Ollama 与 Open WebUI:构建你的私有化 AI 模型应用平台实战
在 AI 技术日益普及的今天,许多开发者和技术爱好者不再满足于仅仅调用云端 API。他们渴望在本地环境中部署、管理和实验自己的 AI 模型,无论是出于数据隐私的考量、网络环境的限制,还是纯粹对技术探索的热爱。构建一个稳定、易用且可扩展的本地 AI 平台,成为了一个极具吸引力的目标。
这里有一套经过验证的方案,它并非简单的工具堆砌,而是一个以1Panel为控制中枢,Ollama为模型引擎,Open WebUI为交互前端的集成化平台。我们将深入探讨如何将它们无缝衔接,并重点解锁通过插件系统集成如 Gemini 等第三方模型的高级玩法,让你在本地也能拥有媲美云端服务的 AI 应用体验。
1. 平台基石:1Panel 与 OpenResty 的部署与配置
构建任何复杂应用,一个稳定且管理便捷的基础环境是首要前提。1Panel 作为一个现代化的 Linux 服务器运维管理面板,以其直观的 Web 界面和容器化应用管理能力,极大地简化了服务器运维工作。而 OpenResty,作为 Nginx 的增强版本,集成了 LuaJIT,为我们提供了高性能的 Web 服务和反向代理能力,是承载我们 AI Web 应用前端的理想选择。
1.1 1Panel 的初始化与 OpenResty 安装
假定你的服务器已就绪并安装了 1Panel。登录后台后,清晰的仪表盘便是操作起点。我们的首要任务是搭建 Web 服务层。
在 1Panel 的'应用商店'中搜索'OpenResty'。通常它会作为官方维护的容器化应用存在。点击安装,1Panel 会引导你完成简化的配置过程。这里有几个关键参数需要注意:
- 端口映射:默认会将容器内的 80 和 443 端口映射到宿主机的某个端口(例如 8080 和 8443)。如果你计划让这个 OpenResty 实例专门服务于后续的 AI WebUI,可以考虑使用默认端口(80/443),但前提是宿主机的这些端口未被占用。更常见的做法是指定其他端口,如
3001:80。 - 数据卷:建议挂载一个宿主机目录到容器内的
/usr/local/openresty/nginx/conf目录,用于持久化 Nginx 配置文件。这样,即使容器重建,你的自定义配置也不会丢失。 - 网络:确保 OpenResty 容器与后续要安装的 Ollama、WebUI 容器处于同一个 Docker 网络(通常是 1Panel 创建的默认桥接网络或自定义网络),这是它们能够互相通信的基础。
安装完成后,OpenResty 容器会自动启动。你可以在 1Panel 的'容器'列表中看到它的运行状态。此时,通过访问 http://你的服务器 IP:映射的端口,应该能看到 OpenResty 的默认欢迎页面,这证明 Web 服务器已就绪。
1.2 基础网络与域名配置(可选但推荐)
对于长期使用的服务,通过 IP 和端口访问既不专业也不方便。利用 1Panel 和 OpenResty,我们可以轻松配置域名访问和 HTTPS。
首先,在 1Panel 侧边栏进入'网站'功能。点击'创建网站',选择'反向代理'。你需要填写:
- 域名:你计划用于访问 AI 平台的域名(例如
ai.yourdomain.com)。 - 代理地址:填写 Ollama 或 WebUI 容器的内部 IP 及端口,例如
http://ollama:11434。如果是多容器架构,确保容器名正确解析。
配置完成后,记得保存并重启站点。接下来就可以尝试通过域名访问你的 AI 前端了。如果一切正常,你将看到一个干净的入口页面,等待连接后端模型服务。

