llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 llama.cpp 的作者所开发。

现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。

官方介绍,优势如下:

  • 完全免费、开源且由社区驱动
  • 在所有硬件上表现出色
  • 高级上下文和前缀缓存
  • 并行和远程用户支持
  • 极其轻量级且内存高效
  • 充满活力且富有创造力的社区
  • 100% 隐私

使用之前需要先安装 llama.cpp server

我还是喜欢命令行直接安装

## Winget (Windows)winget install llama.cpp## Homebrew (Mac and Linux)brew install llama.cpp 

然后启动 UI,也是命令行,为了快速测试,我调用 Qwen2.5 的 0.5b

llama-server -hf Qwen/Qwen2.5-0.5B-Instruct-GGUF --jinja -c 0 --host 127.0.0.1 --port 8033 

量化后模型文件来到不到 500Mb,我发现它默认选 q4_k_m

然后浏览器打开

随便问个问题,速度 97t/s

对比 Ollama 82t/s的样子

其他功能也都挺实用

从磁盘或剪贴板添加多个文本文件到对话的上下文中

将一个或多个 PDF 附件添加到对话中。默认情况下,PDF 的内容将被转换为纯文本,不包括任何视觉元素。

也可以在 AI 模型支持的情况下将 PDF 处理为图像。

当所选的 AI 模型具有视觉输入能力时,可以在对话中插入图片:

图片可以与文本上下文一起插入:

可以渲染数学表达式:

使用 Import/Export 选项直接管理私人对话:

新的 WebUI 对移动设备友好:

其他功能还有,比如:

  • 支持通过 URL 参数传递输入
  • 根据之前的讨论点编辑或重新生成消息以创建分支
  • 同时运行多个聊天对话
  • 并行图像处理
  • 支持嵌入式渲染生成的 HTML/JS 代码
  • 指定一个自定义的 JSON 模式以约束生成的输出到特定格式

目前硬伤是只能浏览器,想打包成 app 也可以,我使用的是 tw93 开发的 pake,一行命令即可,本地服务也可以打包成 app

然后它就将只能浏览器访问的 web 应用打包成 app 了

如此轻量舒服的应用,我与这位网友有相同的期待——支持其他模型的接入

总结来看,比之前想要挑战 ollama 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢,deepseek-v3.1:671b-cloud都敢给 3、网络问题,它目前只能支持 HF 下载模型,国内用户不友好 4、网络搜索和 MCP 也不支持

AI大模型从0到精通全套学习大礼包

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!

01.从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点

在这里插入图片描述


02.AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

在这里插入图片描述


在这里插入图片描述

03.学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

在这里插入图片描述


在这里插入图片描述

04.大模型面试题目详解

在这里插入图片描述
在这里插入图片描述

05.这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述


在这里插入图片描述

智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

在这里插入图片描述


如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Read more

Web 前端基础知识点汇总

Web 前端基础知识点汇总

一、HTML 基础 1.1 浏览器内核 浏览器内核核心包含渲染引擎(解析 HTML/CSS,渲染页面)和JS 引擎(解析执行 JavaScript),不同浏览器内核差异如下: 浏览器内核备注IETrident适配 IE、早期 EdgeFirefoxGecko近年市场份额下降,存在打开速度慢、升级频繁问题SafariWebKit常被误称为 Chrome 内核(Chrome 现已改用 Blink)ChromeChromium/BlinkBlink 是 WebKit 分支,多数国产浏览器最新版基于 Blink 二次开发OperaPresto/Blink早期用 Presto,现跟随 Chrome 使用 BlinkEdgeEdgeHTML/Blink新版 Edge 已切换为 Blink 内核 1.2 Web 标准(

nginx 部署前端vue项目

nginx 部署前端vue项目

👨‍⚕主页: gis分享者 👨‍⚕感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍⚕收录于专栏:前端工程师 文章目录 * 一、🍓什么是nginx? * 二、🍓nginx 部署前端vue项目步骤 * 2.1 🍉安装nginx * 2.1.1 🍌windows环境安装 * 2.1.2 🍌linux环境安装 * 2.2 🍉打包vue项目 * 2.3 🍉配置nginx 一、🍓什么是nginx? Nginx是一款轻量级的HTTP服务器,采用事件驱动的异步非阻塞处理方式框架,这让其具有极好的IO性能,时常用于服务端的反向代理和负载均衡。 优点: * 支持海量高并发:采用IO多路复用epoll。官方测试Nginx能够支持5万并发链接,实际生产环境中可以支撑2-4万并发连接数。 * 内存消耗少 * 可商业化 * 配置文件简单 除了这些优点还有很多,比如反向代理功能,灰度发布,负载均衡功能等

.计算机学习系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

.计算机学习系统信息管理系统源码-SpringBoot后端+Vue前端+MySQL【可直接运行】

摘要 随着信息技术的快速发展,计算机学习系统在教育、科研和企业培训等领域的应用日益广泛。传统的学习管理系统往往存在功能单一、扩展性差、用户体验不佳等问题,难以满足现代学习场景的多样化需求。为了提高学习效率和管理水平,设计并实现一套高效、可扩展的计算机学习系统信息管理系统具有重要意义。该系统能够整合学习资源、管理用户信息、跟踪学习进度,并为管理员提供便捷的数据分析工具。关键词:计算机学习系统、信息管理、学习资源、用户管理、数据分析。 本系统采用前后端分离的架构设计,后端基于SpringBoot框架实现,提供了RESTful API接口,支持高并发和分布式部署。前端使用Vue.js框架开发,结合Element UI组件库,确保用户界面的美观性和交互体验。数据库采用MySQL,通过合理的表结构设计保证数据的一致性和查询效率。系统主要功能包括用户权限管理、课程资源上传与下载、学习进度跟踪、在线测试与成绩分析等。关键词:SpringBoot、Vue.js、MySQL、权限管理、在线测试。 数据表设计 用户信息数据表 用户信息数据表中,注册时间是通过函数自动获取的,用户ID是该表的主键,

2024 AI视觉趋势分析:GLM-4.6V-Flash-WEB开源部署实践

2024 AI视觉趋势分析:GLM-4.6V-Flash-WEB开源部署实践 1. 引言:为什么你需要关注这个“快”模型? 如果你最近在关注AI视觉模型,可能会发现一个现象:模型越来越大,效果越来越好,但部署成本也越来越高。动辄需要多张高端显卡,推理速度还慢得像“思考人生”。这直接劝退了很多想尝鲜的个人开发者和中小团队。 就在这个节骨眼上,智谱AI开源了GLM-4.6V-Flash-WEB。这个名字听起来有点长,但核心就一个字——快。它不是那种需要你准备一堆硬件、折腾半天环境才能跑起来的“巨无霸”,而是一个设计目标非常明确的模型:在单张消费级显卡上,提供又快又好的视觉理解能力,并且同时支持网页交互和API调用。 简单来说,它解决了一个很实际的问题:让高质量的视觉AI,变得触手可及。 本文将带你从零开始,手把手部署并体验这个模型。你会发现,整个过程比你想象的要简单得多。我们不仅会完成部署,还会通过几个实际的例子,看看它到底能做什么,以及它和那些“庞然大物”相比,优势在哪里。 2. 环境准备与一键部署 部署GLM-4.6V-Flash-WEB的过程,