无论是希望将 AI 大模型集成到业务流程中,还是寻求企业客户服务自动化,亦或者是希望创建一个强大的个人学习工具。可能都需要考虑数据安全、灵活度以及更具有可控性的使用和开发基础。值得考虑的一个方案是:将大模型(LLM)私有化并且创建一个好用的 LLM WebUI 系统。
下面,我们推荐 7 个出色的开源 LLM WebUI 系统。
01. Open WebUI(Ollama WebUI)
https://github.com/open-webui/open-webui
Star:45.7K
开发语言:Python、TypeScript、Svelte

Open WebUI 是一个可扩展、功能丰富且用户友好的 WebUI,旨在完全离线操作。它支持包括 Ollama 和 OpenAI 在内的各种 LLM 运行容器或者 API。

产品特点:
- 直观的界面:受 ChatGPT 启发的用户友好型聊天
- 响应式设计:在桌面和移动的上实现流畅的性能
- 轻松安装:使用 Docker/Kubernetes 轻松安装
- 主题定制:个性化与多个主题
- 高亮:增强代码的可读性
- Markdown LaTeX 支持:全面的格式选项
- 本地 RAG 集成:使用#命令访问聊天文档
- RAG 嵌入模型支持:选择嵌入模型(Ollama/OpenAI)
- Web 浏览:使用#命令集成网站
- 提示预设:使用/命令快速访问
- RLHF 注释:人工反馈的速率消息
- 会话标记:对聊天进行分类,以便于参考
- 模型管理:下载、删除和更新模型
- GGUF 文件上传:从 GGUF 文件创建 Ollama 模型
- 多模型支持:切换模型以获得不同的响应
- 多模式支持:包括图像交互
- 模型文件生成器:自定义角色和代理
- 多模型对话:同时利用多个模型
- 协作聊天:使用@ command 分组模型对话
- 本地聊天共享:在用户之间共享聊天链接
- Regeneration 聊天历史:访问所有过去的互动
- 存档导入/导出聊天:组织和传输聊天数据
- 语音输入:自动发送语音输入
- 可配置的 TTS 端点:自定义文本到语音
- 高级参数控制:调节温度,系统提示
- 映像生成集成:本地 API 和 DALL-E 选项
- OpenAI API 支持多种 API:灵活集成
- API 密钥生成:简化 OpenAI 库使用
- 外部 Ollama 服务器连接:连接远程实例
- Ollama 负载平衡:分发请求以提高可靠性
- 多用户管理:用于用户监督的管理面板
- Webhook 集成:新注册的实时通知
- 模型白名单:用户的受控访问
- 可信电子邮件身份验证:增强的安全层
- RBAC:基于角色的受限权限访问
- 后端反向代理:安全的后端通信
- 多语言支持:i18n 国际化
- 持续更新:定期的新功能和改进









