Ubuntu24.04/Open WebUI+Ollama 本地部署

Ubuntu24.04/Open WebUI+Ollama 本地部署

官方文档

🏡 首页 | Open WebUI 文档

本地部署

  • 连接本地 Ollama 服务:

使用服务器测试了下:初次对话耗时较长,后续效率还不错;目前无法联网(废话)

[图片]

对话中即可选择模型:不过我的硬件不支持,所以就先不做测试了

[图片]

修改 Ollama 配置:宿主机 Ollama 服务地址:http://host.docker.internal:11434(我猜你不想一个一个字母敲,就直接大胆使用“cv大法”吧)

[图片]


[图片]

查看本地模型 ID:

[图片]

管理员面板/设置/外部连接

[图片]

运行页面:

[图片]

使用 Docker Compose 封装运行:其中镜像拉取速度比较慢

docker compose up -d 

修改配置文件:由于本地已经运行了 Ollama 服务,所以需要修改docker-compose.yaml以及.env文件中关于 Ollama 的配置

cd open-webui cp .env.example .env 
# .env # Ollama URL for the backend to connect The path '/ollama' will be redirected to the specified # backend URL OLLAMA_BASE_URL='http://host.docker.internal:11434' # AUTOMATIC1111_BASE_URL="http://localhost:7860" # For production, you should only need one host as # fastapi serves the svelte-kit built frontend and backend from the same host and port. # To test with CORS locally, you can set something like # CORS_ALLOW_ORIGIN='http://localhost:5173;http://localhost:8080' CORS_ALLOW_ORIGIN='*' # For production you should set this to match the proxy configuration (127.0.0.1) FORWARDED_ALLOW_IPS='*' # DO NOT TRACK SCARF_NO_ANALYTICS=true DO_NOT_TRACK=true ANONYMIZED_TELEMETRY=false 
# docker-compose.yml# 删除 Ollama 服务的配置以及 open-webui 的依赖,修改环境变量中的 Ollama 地址services:open-webui:build:context: . dockerfile: Dockerfile image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}container_name: open-webui volumes:- open-webui:/app/backend/data ports:- ${OPEN_WEBUI_PORT-3000}:8080environment:-'OLLAMA_BASE_URL=http://host.docker.internal:11434'-'WEBUI_SECRET_KEY='extra_hosts:- host.docker.internal:host-gateway restart: unless-stopped volumes:ollama:{}open-webui:{}

Git 拉取项目:

git clone https://ghfast.top/https://github.com/open-webui/open-webui.git 

联网搜索

  • 本地部署 SearXNG(如有需要或者作者心情好,后续会详细开篇文章;不过根据 Open WebUI 官方文档,相信你也可以);优化部分参考官方文档:SearXNG | Open WebUI 文档
    注意
    • 配置 SearXNG 的搜索引擎,禁用 Brave、DuckDuckGo、Google、Wikipedia等国外搜索引擎(莫怪作者懒得“科学上网”),启用 360search、Bing、Sogou、Baidu(百度可能会触发反爬机制,抛出验证码限制搜索访问;一旦被抓,就是同一 IP 被禁 24h;作者目前还没有解禁『悲』)

开启联网搜索:由于硬件以及模型的限制,虽然进行了联网搜索,但是结果不尽人意;换了好设备和模型,效果就很好了(旧的呢,继续用呗,还能撇了?)

[图片]


[图片]


[图片]

配置 Open WebUI 的页面搜索配置:注意开启最上面的联网搜索、配置宿主机中的 SearXNG 访问地址:http://host.docker.internal:8080/search?q=<query>;否则在对话窗口中无法开启联网搜索、无法连接到 SearXNG 的服务

[图片]

配置 docker-compose.yaml 中的 Caddy 端口映射以及取消 host 网络模式,否则被 Firefox 浏览器占用端口

# docker-compose.yamlcaddy:container_name: caddy image: docker.io/library/caddy:2-alpine # network_mode: hostrestart: unless-stopped ports:-"8081:8081"volumes:- ./Caddyfile:/etc/caddy/Caddyfile:ro - caddy-data:/data:rw - caddy-config:/config:rw environment:- SEARXNG_HOSTNAME=${SEARXNG_HOSTNAME:-http://localhost}- SEARXNG_TLS=${LETSENCRYPT_EMAIL:-internal}logging:driver:"json-file"options:max-size:"1m"max-file:"1"

注意事项

  • 使用 SearXNG 联网时,注意按照官方文档配置搜索引擎以及添加 json 格式
  • 所有系统级配置均在管理员面板/设置中管理
  • 连 1.7B 的大模型都运行乏力,哈基机你这家伙,这就燃尽了么

每次启用 Docker 容器时,需要一些加载时间,当出现下图最后几段日志的时候就是加载完成了:

[图片]

Read more

优化开题报告撰写流程:介绍9款AI写作辅助工具及模板修改详细指南

优化开题报告撰写流程:介绍9款AI写作辅助工具及模板修改详细指南

工具对比速览 工具名称 核心功能 适用场景 效率评分 特色优势 AIBiYe 开题报告生成/降重 中文论文全流程 ★★★★★ 国内院校适配度高 AICheck 初稿生成/格式检查 快速产出框架 ★★★★☆ 结构化输出优秀 AskPaper 文献综述辅助 外文文献处理 ★★★★ 跨语言检索强 秒篇 模板化写作 紧急赶稿 ★★★★ 5分钟速成 AI论文及时雨 全流程辅助 长论文写作 ★★★★☆ 20万字长文支持 学术GPT 语言润色 英文论文优化 ★★★★ 学术用语专业 PubScholar 文献检索 中科院资源 ★★★★ 免费权威 Grammarly 语法检查 语言纠错 ★★★★ 实时修改建议 智谱清言 框架构建 跨学科论文 ★★★☆ 多轮交互设计 AI工具如何革新开题报告写作? Q:AI工具真的能帮我们写好开题报告吗? A:当前AI技术已深度融入学术研究全流程,能够实现文献综述框架的快速搭建、

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度 作为一名长期关注AI图像生成技术的开发者,我一直在寻找能够在质量和速度之间取得最佳平衡的解决方案。最近,Black Forest Labs开源的FLUX.1-dev模型引起了我的注意,特别是它声称能够在消费级硬件上运行,同时保持出色的图像质量。 今天我将通过实际测试,从图像细节、风格控制、生成速度等多个维度,对比FLUX.1-dev与大家熟悉的Stable Diffusion,看看这两个模型在实际使用中究竟表现如何。 1. 测试环境与方法 为了确保对比的公平性,我搭建了统一的测试环境。使用NVIDIA RTX 4090显卡,24GB显存,Intel i9-13900K处理器,64GB DDR5内存。操作系统为Ubuntu 22.04,所有测试都在相同的硬件和软件环境下进行。 测试方法包括定量评估和定性分析。定量方面主要测量生成速度、内存占用等硬性指标;定性方面则通过同一组提示词生成图像,从视觉质量、细节表现、风格一致性等角度进行对比。 我选择了50组涵盖不同场景的提示词,包括人物肖像、风景

阿里通义千问儿童版图像模型部署教程:开箱即用的AI绘画体验

阿里通义千问儿童版图像模型部署教程:开箱即用的AI绘画体验 你有没有想过,孩子随口说的一句“我想看穿裙子的小兔子”,就能变成一幅色彩鲜艳、萌态十足的图画?现在,借助阿里通义千问推出的儿童向图像生成模型 Cute_Animal_For_Kids_Qwen_Image,这一切只需几分钟就能实现。无需编程基础,也不用折腾复杂的环境配置,家长和老师都能轻松上手,为孩子打开一扇通往AI创意世界的大门。 这款模型基于通义千问大模型深度优化,专为儿童场景设计,输出风格统一走“可爱路线”——圆润的线条、明亮的配色、拟人化的动物形象,完全避开成人化或复杂写实风格,确保内容安全又讨喜。无论是做绘本插图、手工课素材,还是睡前故事配图,它都能成为孩子的专属小画师。 1. 模型简介:专为孩子打造的AI绘画伙伴 1.1 什么是 Cute_Animal_For_Kids_Qwen_Image? Cute_Animal_For_Kids_Qwen_

Stable Diffusion底模对应的VAE推荐:提升生成质量的关键技术解析

Stable Diffusion底模对应的VAE推荐:提升生成质量的关键技术解析 引言:VAE在Stable Diffusion生态系统中的核心作用 变分自编码器(VAE)是Stable Diffusion生成架构中不可或缺的组件,负责将潜在空间表示与像素空间相互转换。尽管常常被忽视,VAE的质量直接影响图像生成的细节表现、色彩准确性和整体视觉效果。本文将深入解析不同Stable Diffusion底模对应的最优VAE配置,从技术原理到实践应用全面剖析VAE的选择策略。 VAE在Stable Diffusion中的核心功能包括: * 编码过程:将输入图像压缩到潜在空间表示(latent representation) * 解码过程:将潜在表示重构为高质量图像 * 正则化作用:确保潜在空间遵循高斯分布,便于扩散过程采样 一、VAE技术原理深度解析 1.1 变分自编码器的数学基础 变分自编码器的目标是学习数据的潜在表示,其数学基础建立在变分推断之上。给定输入数据 x x x,VAE试图最大化证据下界(ELBO): log ⁡ p ( x ) ≥ E q ( z ∣