【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型

【AI】——结合Ollama、Open WebUI和Docker本地部署可视化AI大语言模型

🎼个人主页:【Y小夜】

😎作者简介:一位双非学校的大三学生,编程爱好者,

专注于基础和实战分享,欢迎私信咨询!

🎆入门专栏:🎇【MySQLJavawebRustpython

🎈热门专栏:🎊【SpringbootRedisSpringsecurityDockerAI】 

感谢您的点赞、关注、评论、收藏、是对我最大的认可和支持!❤️

目录

🎈本地部署模型

🎉安装Ollama

🎉安装 Open WebUI

🎊安装Docker

🥞启动 Hyper-v

🥞 安装 WSL(适用于Linux的Windows的子系统):

🥞安装Docker

 🎊Docker 部署 Open WebUI


🎈本地部署模型

🎉安装Ollama

官网:​Ollama

然后进行一下下载

安装完成之后是没有提示的,然后我们需要去测试一下。(这里我是以QWen为例子,大家可以尝试其他的模型)

打开一个终端,然后输入一个命令,进行测试

ollama run qwen 

 现在是正在进行下载,默认是保存在(C 盘,C:\Users<username>.ollama\models 如果想更改默认路径,可以通过设置OLLAMA_MODELS进行修改,然后重启终端,重启 ollama 服务。或者在环境变量中修改OLLAMA_MODELS的位置

setx OLLAMA_MODELS "D:" 

下载完成后,可以进行测试:

查看都安装了什么模型

ollma list命令显示所有安装模型 ollama rm 模型名称 删除指定模型

但这个现在就只可以在终端中使用 ,那么我问现在就搞一个web页面进行交互,增加体验。

🎉安装 Open WebUI

🎊安装Docker

如果你本地已经有了Docker了,那就可以直接看下面的内容。

🥞启动 Hyper-v

但是如果你这里没有Hyper-V,那么恭喜你,博主也没有,博主已经踩过这个坑了。

我们首先在桌面上建立一个文件,命名为Hyper.cmd,然后填入内容

pushd "%~dp0" dir /b %SystemRoot%\servicing\Packages\*Hyper-V*.mum >hyper-v.txt for /f %%i in ('findstr /i . hyper-v.txt 2^>nul') do dism /online /norestart /add-package:"%SystemRoot%\servicing\Packages\%%i" del hyper-v.txt Dism /online /enable-feature /featurename:Microsoft-Hyper-V-All /LimitAccess /ALL

然后使用管理员身份运行这个文件,运行完毕后,重启电脑,再打开,就可以找到Hyper-V了。

🥞 安装 WSL(适用于Linux的Windows的子系统):
wsl --update 

然后进行安装

wsl --install 

 

🥞安装Docker

官网: Windows | Docker Docs

然后进行下载:

然后双击进行安装

这里咱们先不注册,直接进行登录即可

左下角是绿色,就代表运行成功了

 🎊Docker 部署 Open WebUI

打开命令行,然后输入docker

展示内容,说明我们的docker安装成功了

然后开始用docker安装open webUI

然后,安装完成够就可以,打开Docker Desktop,访问http://localhost:3000端口了

然后点击登录网址,

就是你会发现,点击上方选择一个模型旁边的加号+可以增加大模型,点击下拉按钮可以选择当前使用哪一个已安装的模型,但是,你可能会出现一个错误,就是找不到你自己安装的模型,这个原因是因为你的ollama没有启动,我们启动一下ollama

然后再重新,加载一下网页,再选择一下模型

提问一下问题,模型进行回答。这样我们本地的模型就部署好了

Read more

【高级前端必修课】:Dify环境下Next.js全局错误处理的最佳实践

第一章:Dify环境下Next.js全局错误处理的核心挑战 在Dify平台集成Next.js应用时,全局错误处理面临运行时环境差异、服务端渲染(SSR)异常捕获限制以及日志链路不完整等核心问题。由于Dify对底层构建流程和部署模型的封装,开发者难以直接访问原生Node.js服务器实例,导致传统通过自定义`server.js`进行错误监听的方式失效。 错误边界覆盖范围受限 Next.js推荐使用React错误边界(Error Boundaries)处理客户端渲染异常,但在Dify环境中,服务端抛出的异步错误往往无法被前端组件捕获。例如,在`getServerSideProps`中触发的API调用异常可能直接中断渲染流程,而不进入预设的错误处理中间件。 统一异常拦截方案 为增强错误可观察性,可在应用层注入全局钩子: // middleware.js export function middleware(req) { try { // 请求级监控 } catch (error) { console.error("[Middleware Error]", { url: req.

WebVOWL 本体可视化工具完整部署手册

WebVOWL 本体可视化工具完整部署手册 【免费下载链接】WebVOWLVisualizing ontologies on the Web 项目地址: https://gitcode.com/gh_mirrors/we/WebVOWL 概述简介 WebVOWL 是一款专业的网络本体可视化工具,能够将复杂的 RDF 和 OWL 数据转换为直观的图形化展示。该工具采用现代化的 Web 技术栈,为语义网研究和本体工程提供了强大的可视化支持。 环境要求与前置准备 在开始部署之前,请确保您的系统满足以下基本要求: 系统环境要求: * Node.js 运行环境(推荐最新稳定版本) * 基本的命令行操作知识 * 现代浏览器支持(Chrome、Firefox、Safari、Edge) 软件版本确认: 通过命令行输入以下命令检查当前环境: node --version npm --version 完整部署流程 第一步:

【前端实战】多进制奇偶校验检查器(HTML+CSS+JS)完整实现,附源码

【前端实战】多进制奇偶校验检查器(HTML+CSS+JS)完整实现,附源码

在数字通信、数据传输及嵌入式开发中,奇偶校验是一种简单高效的差错检测方法,通过判断二进制数据中“1”的个数为奇数或偶数,快速校验数据是否存在传输错误。日常开发中,我们常需要对不同进制(二进制、八进制、十进制、十六进制)的数字进行奇偶校验,手动计算繁琐且易出错。 今天就给大家分享一款纯前端实现的「多进制奇偶校验检查器」,支持4种常用进制切换、自动识别进制前缀(如0x、0o、0b)、偶校验/奇校验可选,无需后端依赖,打开浏览器即可使用。同时拆解核心代码逻辑,适合前端新手练习DOM操作、正则验证及进制转换相关知识点。 先看效果 运行后 一、工具核心功能介绍 这款多进制奇偶校验检查器聚焦“便捷、精准、易用”,核心功能如下,覆盖日常开发中的奇偶校验场景: * 多进制支持:兼容二进制(2)、八进制(8)、十进制(10)、十六进制(16),可自由切换 * 智能前缀识别:

GLM-4.6V-Flash-WEB与语音合成技术结合生成音视频解说

GLM-4.6V-Flash-WEB 与语音合成技术融合:构建高效音视频解说系统 在内容爆炸的时代,用户对信息的消费方式正从“阅读”向“视听”快速迁移。一张静态图片背后蕴藏的信息,若能通过自然语言描述并配上语音讲解,其传播效率和可及性将大幅提升。然而,传统音视频解说依赖人工撰写脚本、录音剪辑,成本高、周期长,难以满足大规模、实时化的内容生产需求。 正是在这一背景下,GLM-4.6V-Flash-WEB 的出现带来了转机。这款由智谱AI推出的轻量级多模态模型,不仅具备强大的图像理解能力,更以极低的推理延迟和部署门槛,为自动化音视频生成提供了现实可行的技术路径。当它与现代语音合成技术(TTS)结合时,一个从“看图说话”到“自动配音”的完整闭环悄然成型。 视觉语言模型的新选择:为什么是 GLM-4.6V-Flash-WEB? 市面上并不缺少视觉语言模型——BLIP-2、Qwen-VL、LLaVA 等都在学术界和工业界广泛应用。但多数模型更偏向于研究场景,在实际落地中常面临“跑得动但用不起”的尴尬:要么需要多卡A100集群支撑,