llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 llama.cpp 的作者所开发。

现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。

官方介绍,优势如下:

  • 完全免费、开源且由社区驱动
  • 在所有硬件上表现出色
  • 高级上下文和前缀缓存
  • 并行和远程用户支持
  • 极其轻量级且内存高效
  • 充满活力且富有创造力的社区
  • 100% 隐私

使用之前需要先安装 llama.cpp server

我还是喜欢命令行直接安装

## Winget (Windows)winget install llama.cpp## Homebrew (Mac and Linux)brew install llama.cpp 

然后启动 UI,也是命令行,为了快速测试,我调用 Qwen2.5 的 0.5b

llama-server -hf Qwen/Qwen2.5-0.5B-Instruct-GGUF --jinja -c 0 --host 127.0.0.1 --port 8033 

量化后模型文件来到不到 500Mb,我发现它默认选 q4_k_m

然后浏览器打开

随便问个问题,速度 97t/s

对比 Ollama 82t/s的样子

其他功能也都挺实用

从磁盘或剪贴板添加多个文本文件到对话的上下文中

将一个或多个 PDF 附件添加到对话中。默认情况下,PDF 的内容将被转换为纯文本,不包括任何视觉元素。

也可以在 AI 模型支持的情况下将 PDF 处理为图像。

当所选的 AI 模型具有视觉输入能力时,可以在对话中插入图片:

图片可以与文本上下文一起插入:

可以渲染数学表达式:

使用 Import/Export 选项直接管理私人对话:

新的 WebUI 对移动设备友好:

其他功能还有,比如:

  • 支持通过 URL 参数传递输入
  • 根据之前的讨论点编辑或重新生成消息以创建分支
  • 同时运行多个聊天对话
  • 并行图像处理
  • 支持嵌入式渲染生成的 HTML/JS 代码
  • 指定一个自定义的 JSON 模式以约束生成的输出到特定格式

目前硬伤是只能浏览器,想打包成 app 也可以,我使用的是 tw93 开发的 pake,一行命令即可,本地服务也可以打包成 app

然后它就将只能浏览器访问的 web 应用打包成 app 了

如此轻量舒服的应用,我与这位网友有相同的期待——支持其他模型的接入

总结来看,比之前想要挑战 ollama 的 Shimmy 要好很多,但是 Ollama 玩了这么久也不是吃素的 1、Ollama 有更加方便的 app,随时切换本地模型甚是方便 2、Ollama 还有免费云模型可以调用呢,deepseek-v3.1:671b-cloud都敢给 3、网络问题,它目前只能支持 HF 下载模型,国内用户不友好 4、网络搜索和 MCP 也不支持

AI大模型从0到精通全套学习大礼包

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

只要你是真心想学AI大模型,我这份资料就可以无偿共享给你学习。大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

如果你也想通过学大模型技术去帮助就业和转行,可以扫描下方链接👇👇
大模型重磅福利:入门进阶全套104G学习资源包免费分享!

01.从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点

在这里插入图片描述


02.AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

在这里插入图片描述


在这里插入图片描述

03.学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

在这里插入图片描述


在这里插入图片描述

04.大模型面试题目详解

在这里插入图片描述
在这里插入图片描述

05.这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述


在这里插入图片描述

智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

在这里插入图片描述


如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Read more

推荐一个基于 Spring Boot 4.0 + Java 21 + Spring AI 2.0 的大模型项目!

推荐一个基于 Spring Boot 4.0 + Java 21 + Spring AI 2.0 的大模型项目!

大家好,我是 Guide。今年元旦假期,我写了一个大模型项目并完全开源了出来。 短短一个月时间,这个项目目前就已经在 Github 收获了 450+ Star,吸引了多位社区爱好者共同参与完善! 发布之后,得益于大家的共同贡献,我们顺利完成了下面这些事情: * 添加 API 限流保护:基于 Redis+Lua 封装分布式限流组件,支持按用户、IP 或全局维度的精准流量控制,有效防御恶意刷接口行为,保障高价值 AI API 的配额安全。 * 前端性能优化: * RAG 聊天界面引入虚拟列表。 * 引入懒加载和代码分割,解决了首屏加载缓慢和 Bundle 体积过大的问题。 * 功能优化: * 向量功能和 Tika 简历解析优化。 * 增加面试问题去重功能,避免重复提问。 * Docker 快速部署:通过 Docker Compose 一键搭建包含数据库扩展、缓存、

By Ne0inhk

JDK 11 vs JDK 8:性能对比与升级指南

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 创建一个JDK 11与JDK 8的性能对比测试工具,要求:1. 测试JVM启动时间;2. 测试GC性能;3. 测试多线程并发处理能力;4. 测试Stream API性能;5. 生成可视化对比报告。使用JMH进行基准测试,结果以图表形式展示,包含详细的分析说明。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 最近在项目升级时遇到了JDK版本选择的问题,团队一直在用JDK 8,但听说JDK 11有不少性能优化。为了搞清楚实际差异,我决定做个全面的性能对比测试。这个过程中发现InsCode(快马)平台特别适合做这类技术验证,不用配环境就能直接跑测试,分享下我的测试方法和结果。 1.

By Ne0inhk
【技术架构】从单机到微服务:Java 后端架构演进与技术选型核心方案

【技术架构】从单机到微服务:Java 后端架构演进与技术选型核心方案

🔥个人主页: 中草药  🔥专栏:【Java】登神长阶 史诗般的Java成神之路 一、单机架构         单机架构的核心是 “单点部署”:后端服务的所有功能模块(从接收请求到返回响应)都在一台机器内完成,不存在跨机器的网络通信(如分布式中的服务调用、跨节点数据库访问)。 诞生于互联网发展早期阶段:当时用户访问量小、业务场景简单,单机的计算(CPU、内存)与存储(磁盘)能力,足以支撑业务需求,无需多机分布式协作。 可以用一个简单的类比理解: * 单机架构 ≈ 一家 “夫妻小店”:老板(应用服务)、仓库(数据库)、收银台(Web 服务器)、货架(静态资源)都在同一个店面里,顾客(用户)的需求在店内即可全部满足,无需联系外部。 * 分布式架构 ≈ 连锁超市:总部(核心服务)、分店(

By Ne0inhk
【Linux系统编程】(四十)线程控制终极指南:从资源共享到实战操控,带你吃透线程全生命周期

【Linux系统编程】(四十)线程控制终极指南:从资源共享到实战操控,带你吃透线程全生命周期

前言         在 Linux 多线程开发中,“线程控制” 是贯穿始终的核心技能 —— 从线程的创建、终止,到等待、分离,每一步操作都直接影响程序的性能、稳定性和资源利用率。而要熟练掌握线程控制,首先必须理清一个关键问题:进程和线程究竟哪些资源共享、哪些资源独占?这是理解线程控制逻辑的底层基石。         很多开发者在编写多线程程序时,常会陷入这样的困境:明明调用了pthread_create却创建失败,线程退出后出现资源泄漏,用pthread_join等待线程却始终阻塞,甚至因误操作导致整个进程崩溃。这些问题的根源,往往是对线程与进程的资源关系理解不深,或是对 POSIX 线程库的控制接口使用不当。         本文将从 “进程与线程的资源划分” 入手,层层递进讲解 Linux 线程的完整控制流程 —— 包括 POSIX 线程库的使用、线程创建、终止、等待、分离等核心操作,全程结合实战代码和底层原理,用通俗的语言拆解复杂概念,让你不仅 “会用” 线程控制接口,更能 “懂原理”

By Ne0inhk