大模型基于llama.cpp量化详解

大模型基于llama.cpp量化详解

概述

llama.cpp 是一个高性能的 LLM 推理库,支持在各种硬件(包括 CPU 和 GPU)上运行量化后的大语言模型。本文档详细介绍如何使用 llama.cpp 将 HuggingFace 格式的模型转换为 GGUF 格式,并进行不同程度的量化。

GGUF 格式:GGUF(Georgi Gerganov Universal Format)是 llama.cpp 专门设计的模型文件格式,针对快速加载和保存模型进行了优化,支持单文件部署,包含加载模型所需的所有信息,无需依赖外部文件。

1.安装cmake
CMake 是跨平台的构建工具,用于编译 llama.cpp 项目。

下载地址:https://cmake.org/download/

安装建议

  • Windows 用户建议下载 cmake-3.x.x-windows-x86_64.msi 安装包
  • 安装时选择 “Add CMake to the system PATH”,以便在命令行中直接使用

验证安装

cmake --version 2.安装llama.cpp ```bash git clone https://github.com/ggerganov/llama.cpp 

convert_hf_to_gguf.py:HuggingFace 格式转 GGUF 的脚本
llama-quantize(或 quantize.exe):量化工具
main(或 main.exe):推理主程序
examples/:各种示例程序

3.编译

cd llama.cpp pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple pip install -r requirements/requirements-convert_hf_to_gguf.txt cmake -G "MinGW Makefiles" -DCMAKE_C_COMPILER=gcc -DCMAKE_CXX_COMPILER=g++ -B build cmake --build build --config Release 

4.模型转换
将safetensors转换为gguf

 convert-hf-to-gguf.py D:\\Project\\2026\\llama3-lora-merge --outtype f16 --outfile D:\\Project\\2026\\my_llama3.gguf 

参数说明:
D:\Project\2026\llama3-lora-merge:输入模型路径(包含 config.json 和权重文件的目录)
–outtype f16:输出类型,f16 表示半精度浮点数(16-bit),可选 f32(全精度)或 bf16
–outfile:输出 GGUF 文件路径

类型精度说明
f3232-bit全精度,文件最大,精度最高
f1616-bit半精度,平衡选择
bf1616-bitBrain Float,动态范围更大
q8_08-bit直接量化为 8 位

6.进一步量化

 D:\Project\2026\test_llama3.cpp\llama.cpp\build\bin\Release quantize.exe D:\\Project\\2026\\my_llama3.gguf D:\\Project\\2026\\quantized_model.gguf q4_0 

llama-quantize可执行文件来对模型进行进一步量化处理。量化可以帮助我们减少模型的大小,但是代价是损失了模型精度,也就是模型回答的能力可能有所下降。权衡以后我们可以选择合适的量化参数,保证模型的最大效益。
量化使用 q 表示存储权重的位数。位数越低,模型越小,速度越快,但精度损失越大。

量化类型位宽精度损失适用场景典型压缩率
q2_k2-bit极低资源环境,实验用途~75%
q3_k_s / q3_k_m / q3_k_l3-bit中高资源受限,可接受一定质量损失~60%
q4_0 / q4_14-bit最常用,平衡大小与质量~50%
q4_k_s / q4_k_m4-bit改进的 4-bit,质量更好~50%
q5_0 / q5_15-bit较高质量要求~40%
q5_k_s / q5_k_m5-bit改进的 5-bit~40%
q6_k6-bit很低接近原始质量~35%
q8_08-bit极低几乎无损,文件较大~25%
f1616-bit原始转换,未量化0%

K-quant 说明:
后缀带 _k 的(如 q4_k_m)使用改进的量化算法
混合量化策略:对 attention 层使用更高精度,其他层使用较低精度
_s(small)、_m(medium)、_l(large)表示混合程度

Read more

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

核心应用场景 马尔科夫模型在医疗健康领域的应用核心在于其处理时序与状态转移的能力,尤其适用于以下几类具有明确阶段性的临床与管理问题: 1. 疾病进展建模:量化慢性病(如糖尿病、心血管疾病、慢性肾病)在不同临床分期之间的转移风险,为早期干预提供依据。 2. 治疗决策优化:在考虑治疗效果、副作用、成本及患者偏好的多维度下,模拟不同治疗策略的长期结局,辅助制定个性化方案。 3. 生存分析与预后预测:动态评估患者的生存概率或特定终点事件(如复发、再入院)发生风险,随时间更新预测。 4. 医疗资源需求预测:基于患者群体的状态流模型,预测未来不同科室(如ICU、康复病房)的床位、设备及人力需求。 实战示例:构建糖尿病进展预测模型 以下是一个基于模拟数据的糖尿病进展马尔科夫模型构建框架,展示了从数据到模拟的核心流程。 import numpy as np

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

零成本运行AI智能体:OpenClaw+Ollama本地私有化部署完全指南 告别API账单,让AI真正属于你自己——数据隐私+零Token成本+离线可用 引言:为什么需要本地模型? 在OpenClaw的生态中,模型是AI的“大脑”。无论是GPT-4还是Claude,云端大模型虽然强大,但存在三个无法回避的问题: 1. 成本居高不下:一个中等规模的团队,每月API费用轻松超过$500 2. 隐私风险:敏感代码、商业文档、个人数据必须上传到厂商服务器 3. 网络依赖:断网环境AI直接“罢工” OpenClaw + Ollama的组合正是为解决这些问题而生。Ollama作为轻量级本地大模型管理工具,能将Llama、Qwen等开源模型部署在你的电脑上,让OpenClaw彻底摆脱云端依赖,实现本地推理、数据私有化、零Token成本的全闭环体验 。 本地部署模式 用户指令 OpenClaw网关 本地Ollama Llama/Qwen 返回结果 零成本 数据留在本地 云端部署模式 用户指令

OpenClaw 实操指南 07:飞书 CLI 开源:让 AI 真正接管你的飞书全流程

OpenClaw 实操指南 07:飞书 CLI 开源:让 AI 真正接管你的飞书全流程

2026年3月28日,飞书官方开源larksuite/cli(v1.0.0),以200+命令、19个AI Agent Skills,将飞书2500+开放API封装为命令行接口,面向人类开发者与AI Agent双用户,重构办公协作的操作范式。这不仅是工具升级,更是飞书从“GUI服务人”到“GUI+CLI双态并行”的战略跃迁——GUI给人交互,CLI给AI执行,让AI真正成为办公的“执行者”而非“旁观者”。 一、飞书CLI是什么:从API到命令行的能力跃迁 1. 核心定位与架构 飞书CLI是官方开源、MIT协议、免费商用的命令行工具,核心定位是让AI Agent直接操控飞书全量数据与业务,而非仅做信息查询。其三层架构清晰划分能力边界: * Shortcuts层:高频快捷命令(如lark-cli calendar +agenda查今日日程),降低人类使用门槛。 * API Commands层:200+

2026全球最强十大AI大模型

1. GPT-5.2 定位:深度推理之王。 优势: *  极致推理:在数学、物理、逻辑谜题及复杂代码架构设计上仍保持全球第一,尤其是其“Thinking”模式,能处理极度复杂的链式推理任务。 缺点: * 成本高昂:API调用价格昂贵,不适合大规模低成本应用。 2.Gemini 3 Pro (Google) 定位:原生多模态霸主,长上下文王者。 优势: * 超长上下文:支持数百万Token的上下文窗口,能一次性处理整本书、长达数小时的视频或大型代码库。 * 多模态融合:真正的“原生”多模态,对图像、音频、视频的理解能力远超其他模型,能直接分析视频中的细微动作和语音语调。 * 谷歌生态:与Google Workspace、Search深度集成,实时信息检索能力极强。 缺点: * 幻觉问题:在处理极度冷门的知识时,偶尔会出现“自信地胡说八道”的情况。