【零基础玩转多模态AI:Gemma3 27B开源视觉模型本地部署与远程访问】

【零基础玩转多模态AI:Gemma3 27B开源视觉模型本地部署与远程访问】
💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。
推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老导航檀越剑指大厂系列:全面总结 java 核心技术,jvm,并发编程 redis,kafka,Spring,微服务等常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,typora 等数据库系列:详细总结了常用数据库 mysql 技术点,以及工作中遇到的 mysql 问题等新空间代码工作室:提供各种软件服务,承接各种毕业设计,毕业论文等懒人运维系列:总结好用的命令,解放双手不香吗?能用一个命令完成绝不用两个操作数据结构与算法系列:总结数据结构和算法,不同类型针对性训练,提升编程思维,剑指大厂

非常期待和您一起在这个小小的网络世界里共同探索、学习和成长。💝💝💝 ✨✨ 欢迎订阅本专栏 ✨✨

博客目录

前言

如今在 AI 领域的竞争逐渐进入了白热化,各家大模型的性能较量真是一天一个变化。今天和大家分享的是由谷歌带来的 Gemma3 开源大模型,它有 10 亿、40 亿、120 亿和 270 亿参数等多种规模版本,我们可以按需选择。

在多项基准测试中,Gemma 3 全家桶相较于上一代实现了全面提升,仅以 27B 参数击败了 o1-preview、o3-mini high、DeepSeek V3,属于仅次于 DeepSeek R1 的开源模型。而且可以理解 140+语言,中文支持也很好,更棒的是支持视觉输入和文本输出的多模态能力。

下面就来具体演示一下如何在家用级的 Windows 系统电脑上,使用 ollama 来安装部署 Gemma3:27B 大模型,并给他搭配一个 WebUI 界面,让我们在与 AI 互动时获得更美观的界面与更多的辅助功能。

1744091869943

1. 安装 Ollama

本例中使用的是 Windows11 系统专业版,通过 Ollama 运行 Gemma3:27B 大模型,之前曾经发布过如何在 Windows 安装 Ollama 的教程,有需要的同学可以看看这篇文章:Windows 本地部署 Deepseek-R1 大模型并使用 Web 界面远程交互

简单来说,就是访问 Ollama 的官网:Download Ollama on Windows

image-20250408144901346

下载对应版本的 ollama 安装程序并安装:

image-20250408144936715

2.Gemma3 模型安装与运行

然后在 Ollama 的官网点击 Models,可以看到排在最上边的就是 Gemma3 模型全家桶:

image-20250408145138702

点进去之后,在左侧的下拉选项中能看到目前有 4 个量级的模型,分别是 1b/4b/12b/27b 和对应所需的储存空间:

image-20250408145434595

本例使用 gemma3:27b 模型进行演示,**支持多模态(视觉)**27B 参数模型(128k 上下文窗口),需要准备 20G 以上硬盘空间,右边是运行命令:

image-20250408145622588

Ollama 安装完成之后,打开 cmd 或者 powershell 等终端工具,执行命令就可以下载模型了:

ollama run gemma3:27b 
PS:默认会下载模型到 C 盘,如果想修改下载位置,可以在终端中执行下方命令来指定模型文件的存放目录,这里以 d:\ollama 为例,大家可以自定义:

如果你之前安装过 ollama,在执行命令后出现如下图提示,那么关闭终端,请先升级 ollama 到最新版本。

image-20250408153616855

更新后,即可正常下载:

image-20250408154135178

模型下载完成之后,安装成功后会提示 success:

image-20250408161835787

自动进入对话状态,直接输入内容就能提问了:

image-20250408150619788

3. 安装 Open WebUI 图形化界面

现在我们已经能够在本地 Windows 电脑上使用 Gemma3 27B 模型解答问题了,但在命令行中对话可能不是很美观,在复制回答时也不太方便,我们可以通过安装一个图形化界面来解决这个问题。

不过在此之前,我们需要配置 Ollama 的环境变量,在终端中分别执行下方命令以便后续远程调用大模型:

setx OLLAMA_HOST "0.0.0.0"
setx OLLAMA_ORIGINS "*"

然后点击电脑桌面右下角的 ollama 图标退出并重启服务。

本例以Open WebUI这个图形化界面为例,使用 Docker 进行安装,它的界面和平时在网页中和其他大模型聊天非常相似。当然,大家也可以选择其他的方式,比如使用page assist 浏览器插件lobechatcherry studio等。

如果大家之前未安装过 Docker,可以参考下方教程进行Docker 安装Docker 安装——Linux、Windows、MacOS

3.1 Open WebUI 安装运行

访问Open WebUI的 github 页面: https://github.com/open-webui/open-webui

如果你的 Ollama 和 Open WebUI 在同一台主机,执行这行命令在cmd终端中就可以在本地快速进行部署:

image-20240412140749937
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 

将上边在 Docker 中部署 Open WebUI 的命令复制后粘贴到终端中,回车:

image-20240412144132799

安装完成后,打开 Docker Desktop,可以看到 Open WebUI 的 web 界面地址为:https://localhost:3000

image-20240412144401182

点击后会在浏览器打开登录界面:

image-20240412144744192

使用自己的邮箱注册账号,密码要记好,下次登录时需要用到:

image-20240412144927140

添加模型后就能在浏览器中使用 web 界面来和 Gemma3 27B 模型聊天了!

image-20250408162703645

3.2 添加模型

点击右上角的设置,可以修改当前界面的语言为简体中文:然后点击保存即可。

image-20240412145306289

点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,这里选择刚才安装的 gemma3:27b,接下来就可以愉快的跟大模型在网页中聊天了!

image-20250408162829645
image-20250408164042496

到这里就成功在 Windows 电脑本地部署了 gemma3:27b 模型并使用 Open WebUI 在网页中与 AI 交互啦。

3.3 多模态测试

现在我们上传一张图片测试一下效果:(点击对话框左侧加号即可上传图片)

image-20250408165103486

确实有点东西,识别物品的效果还是不错的,还给出了一个结论。

再来测试上传一张人物照片给它,让它分析一下拍摄效果并给出优化建议:

image-20250408170901214
1744103447878

感觉似乎分析的也还行,大家感兴趣的话也可以稍后自己部署一下进行测试。

4. 安装内网穿透工具

但如果想实现不在同一网络环境下,也能随时随地在浏览器中使用 Open WebUI 与本地部署的 gemma3:27b 大模型在网页中聊天,那就需要借助 cpolar 内网穿透工具来实现公网访问了!接下来介绍一下如何安装 cpolar 内网穿透,过程同样非常简单:

首先进入 cpolar 官网:

cpolar 官网地址:https://www.cpolar.com

点击免费使用注册一个账号,并下载最新版本的 cpolar:

image-20250307152003085

登录成功后,点击下载 cpolar 到本地并安装(一路默认安装即可)本教程选择下载 Windows 版本。

image-20240319175308664

cpolar 安装成功后,在浏览器上访问 http://localhost:9200,使用 cpolar 账号登录,登录后即可看到配置界面,结下来在 WebUI 管理界面配置即可。

img

接下来配置一下 Open WebUI 的公网地址:

登录后,点击左侧仪表盘的隧道管理——创建隧道,

  • 隧道名称:gem27(可自定义命名,注意不要与已有的隧道名称重复)
  • 协议:选择 http
  • 本地地址:3000 (本地访问的地址)
  • 域名类型:选择随机域名
  • 地区:选择 China Top
1744103682229

隧道创建成功后,点击左侧的状态——在线隧道列表,查看所生成的公网访问地址,有两种访问方式,一种是 http 和 https:

image-20250408171521306

使用上面的任意一个公网地址,在手机或任意设备的浏览器进行登录访问,即可成功看到 Open WebUI 界面,这样一个公网地址且可以远程访问就创建好了,使用了 cpolar 的公网域名,无需自己购买云服务器,即可到随时在线访问 Open WebUI 来在网页中使用本地部署的 gemma3:27b 大模型了!

image-20250408171805771

小结

为了方便演示,我们在上边的操作过程中使用 cpolar 生成的 HTTP 公网地址隧道,其公网地址是随机生成的。这种随机地址的优势在于建立速度快,可以立即使用。然而,它的缺点是网址是随机生成,这个地址在 24 小时内会发生随机变化,更适合于临时使用。

如果有长期远程访问 Open WebUI 使用 gemma3:27b 模型,或者异地访问与使用其他本地部署的服务的需求,但又不想每天重新配置公网地址,还想让公网地址好看又好记并体验更多功能与更快的带宽,那我推荐大家选择使用固定的二级子域名方式来为 Open WebUI 配置一个公网地址。

5. 配置固定公网地址

接下来演示如何为其配置固定的 HTTP 公网地址,该地址不会变化,方便分享给别人长期查看你部署的项目,而无需每天重复修改服务器地址。

配置固定 http 端口地址需要将 cpolar 升级到专业版套餐或以上。

登录 cpolar 官网,点击左侧的预留,选择保留二级子域名,设置一个二级子域名名称,点击保留:

image-20250408171952309

保留成功后复制保留成功的二级子域名的名称:mygem27,大家也可以设置自己喜欢的名称。

image-20250408172009637

返回 Cpolar web UI 管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道:gem27,点击右侧的编辑:

image-20250408172111336

修改隧道信息,将保留成功的二级子域名配置到隧道中

  • 域名类型:选择二级子域名
  • Sub Domain:填写保留成功的二级子域名:mygem27

点击更新(注意,点击一次更新即可,不需要重复提交)

image-20250408172153785

更新完成后,打开在线隧道列表,可以看到公网地址已经发生变化,地址名称也变成了固定的二级子域名名称的域名:

image-20250408172230906

最后,我们使用上边任意一个固定的公网地址访问,可以看到访问成功,这样一个固定且永久不变的公网地址就设置好了,可以随时随地在公网环境异地在线访问本地部署的 Open WebUI 来使用 gemma3:27b 大模型了!

image-20250408172435086

总结

通过以上步骤,我们实现了在 Windows 系统电脑本地安装 Ollama 与谷歌 gemma3:27b 大模型,并使用 docker 部署 Open WebUI,结合 cpolar 内网穿透工具轻松实现在公网环境中使用浏览器远程访问本地部署的大模型,并配置固定不变的二级子域名公网地址的全部流程,经过简单测试,这款大模型的多模态功能确实效果很惊艳,而且还支持在家用级硬件配置上进行本地部署,降低了使用门槛,非常期待它后续的发展,也感谢您的观看,有任何问题欢迎留言交流。

觉得有用的话点个赞 👍🏻 呗。
❤️❤️❤️本人水平有限,如有纰漏,欢迎各位大佬评论批评指正!😄😄😄

💘💘💘如果觉得这篇文对你有帮助的话,也请给个点赞、收藏下吧,非常感谢!👍 👍 👍

🔥🔥🔥Stay Hungry Stay Foolish 道阻且长,行则将至,让我们一起加油吧!🌙🌙🌙

Read more

Clawdbot 开源 AI 助手 国内零门槛部署教程(新手友好版):含国内镜像加速 + 环境配置 + 常见报错全解

Clawdbot 开源 AI 助手 国内零门槛部署教程(新手友好版):含国内镜像加速 + 环境配置 + 常见报错全解

1. 背景引入 随着大语言模型技术的快速发展,开源 AI 助手成为开发者和企业构建智能应用的重要基础。然而,国内开发者在部署开源 AI 助手时,常面临网络访问受限、环境配置复杂、依赖安装失败等问题。Clawdbot 作为一款轻量级、可扩展的开源 AI 助手,通过集成国内镜像加速、优化环境配置流程,实现了零门槛部署。本文将详细介绍 Clawdbot 的核心原理、实操步骤、常见报错解决方案,助力开发者快速搭建专属 AI 助手。 2. 核心原理 2.1 技术架构 Clawdbot 采用分层架构设计,主要包括: * 模型层:支持对接主流开源大语言模型(如 Llama 3、Qwen 2 等),通过统一接口实现模型调用。 * 服务层:基于 FastAPI 构建

By Ne0inhk
[Git] 认识 Git 的三大区域 && 文件的修改和提交

[Git] 认识 Git 的三大区域 && 文件的修改和提交

文章目录 * 认识 Git 的三大区域:工作区、暂存区、版本库 * 工作区、暂存区、版本库的关系流程图解 (概念) * 将文件添加到仓库进行管理:`git add` 和 `git commit` * 场景一:第一次添加文件到仓库 * 查看提交历史:`git log` * (进阶理解)提交后的 `.git` 目录变化 * 场景二:再次理解 `add` 和 `commit` 的配合 * 修改文件并提交:`git status` 和 `git diff` * 查看工作区状态:`git status` * 查看具体修改内容:`git diff` * 提交修改后的文件 * 总结一下 Git 的基本操作流程 在上一篇中,我们学习了如何安装

By Ne0inhk
Flutter 三方库 git_hooks 鸿蒙强干预研发质量审核截断防线设防适配解析:依托钩子拦截引擎封锁全域代码递交链路建立极强合规化审计审查防火墙斩断-适配鸿蒙 HarmonyOS ohos

Flutter 三方库 git_hooks 鸿蒙强干预研发质量审核截断防线设防适配解析:依托钩子拦截引擎封锁全域代码递交链路建立极强合规化审计审查防火墙斩断-适配鸿蒙 HarmonyOS ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 git_hooks 鸿蒙强干预研发质量审核截断防线设防适配解析:依托钩子拦截引擎封锁全域代码递交链路建立极强合规化审计审查防火墙斩断技术债堆砌 前言 在 OpenHarmony 的大规模团队协作中,代码质量是团队的生命线。如果没有有效的约束,不符合规范的代码(甚至是无法通过静态分析的代码)会轻易地通过 git commit 进入代码库,导致 CI 构建频繁失败。git_hooks 库为 Flutter 开发者提供了一种轻量级的脚本化方案,可以在 Git 的关键生命周期(如提交前、推送前)自动运行检查。本文将带大家在鸿蒙端实战适配该库,夯实自动化工程的地基。 一、原直线性 / 概念介绍 1.1 基础原理/概念介绍 git_hooks 的核心逻辑是基于 Git

By Ne0inhk
被低估的国产编程字体王者:Sarasa-Gothic(更纱黑体)深度测评,8 年打磨的开源宝藏工具

被低估的国产编程字体王者:Sarasa-Gothic(更纱黑体)深度测评,8 年打磨的开源宝藏工具

被低估的国产编程字体王者:Sarasa-Gothic(更纱黑体)深度测评,8年打磨的开源宝藏工具 在程序员的开发工具箱里,编程字体是最容易被忽视却又至关重要的存在。一款优秀的编程字体,能让长时间的代码阅读变得轻松舒适,减少视觉疲劳,甚至在一定程度上提升编码效率。提到2025年热门的开源编程字体,很多人首先想到的是Maple Mono,但在中文编程字体领域,还有一款由国人独立开发并维护了8年的开源神器——Sarasa-Gothic(中文名“更纱黑体”),它融合多款经典字体优势,拥有近百种变体版本,却鲜少被大众熟知。今天,我们就来全方位拆解这款被低估的编程字体王者,看看它究竟能为开发者带来怎样的使用体验。 一、8年磨一剑:Sarasa-Gothic的开发历程与核心优势 Sarasa-Gothic的故事始于2017年,彼时开源社区中针对中文场景优化的等宽编程字体还较为稀缺。开发者从“解决中文编程字体痛点”出发,历时8年持续迭代,累计提交700+代码更新,发布194个稳定版本,即使到2025年,仍保持着每周更新的频率。这种长期坚持的开发态度,在个人维护的开源项目中实属罕见,也为字体的

By Ne0inhk