OpenWebUI 本地部署与 cpolar 内网穿透远程访问指南
OpenWebUI 是一款优秀的开源本地 AI 模型管理工具,它将复杂的命令行操作转化为直观的聊天界面,支持多模型切换、私人知识库搭建等功能。其核心优势在于数据本地存储保障隐私,同时能灵活对接本地 Ollama 模型和云端 API。无论是设计师调取素材、学生润色论文,还是小团队协作,都能通过它降低使用门槛。
不过,OpenWebUI 默认仅在局域网内可用。当需要出差或异地办公时,直接访问会遇到网络限制。结合 cpolar 内网穿透技术,无需复杂端口映射即可生成公网访问地址,让本地 AI 模型随时随地可用,既保留了隐私优势,又实现了全球访问的便利。
一、环境准备与安装
在开始之前,请确保系统满足以下基本要求。推荐使用 Python pip 部署方案,简单且无需额外软件。
系统要求:
- Python 版本:Python 3.11(必须,其他版本可能存在兼容性问题)
- 操作系统:Windows 10/11、macOS 10.15+、Linux (Ubuntu 18.04+)
- 内存:建议 8GB 以上(运行大模型需要更多内存)
- 存储空间:至少 10GB 可用空间
必需软件:
- Python 3.11:核心运行环境
- Ollama:本地大模型运行环境(可选,也可使用远程 API)
1. 配置 Python 环境
首先确认电脑上拥有 python 3.11 版本的环境。如果没有,可前往官方下载。
# Windows
https://www.python.org/downloads/release/python-3118/
# macOS
brew install [email protected]
# Linux (Ubuntu/Debian)
sudo apt install python3.11
验证版本:
python --version
2. 加速依赖下载
配置国内源镜像以加速依赖包下载:
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
3. 安装并启动 OpenWebUI
执行安装命令:
pip install open-webui
安装完成后,启动服务:
open-webui serve
启动成功后,在浏览器访问 http://localhost:8080/。首次进入需创建管理员账号,之后即可登录首页使用。
二、模型接入:本地 Ollama 与云端 API
1. 接入本地 Ollama 模型
若使用本地模型,需先安装 Ollama 服务。
安装命令:
# Windows
winget install Ollama.Ollama
# macOS
brew install ollama
curl -fsSL https://ollama.ai/install.sh | sh


