LLaMAFactory、ModelScope 大模型微调实战(下)

LLaMAFactory、ModelScope 大模型微调实战(下)

一、前言

上次简单介绍了下 LLaMAFactory、ModelScope的微调,今天再来总结下如何部署已经微调好的大模型。

直通车→→→ https://blog.ZEEKLOG.net/tadexinnian/article/details/159154443

本次演示基于魔搭社区(https://www.modelscope.cn/my/mynotebook

二、将模型转换为gguf

2.1 克隆llama.cpp 并安装环境依赖

-- 进入根目录 cd /mnt/workspace -- 需要用 llama.cpp 仓库的 convert_hf_to_gguf.py 脚本来转换 git clone https://github.com/ggerganov/llama.cpp.git -- 进入llama.cpp文件夹 cd llama.cpp -- 创建虚拟环境 python -m venv .venv -- 进入虚拟环境 source .venv/bin/activate -- 安装依赖 pip install -r requirements.txt

2.2 转换模型为 gguf

python convert_hf_to_gguf.py /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged --outtype q8_0 --verbose --outfile /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged/Qwen3-4B-Instruct_q8_0.gguf

执行结束后,gguf 文件会保存在 

/mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged/Qwen3-4B-Instruct_q8_0.gguf

三、部署

3.1 基于llmma.app (推荐)

github https://github.com/ggml-org/llama.cp

3.1.1 安装llama.app 

可参考 https://github.com/ggml-org/llama.cpp/blob/master/docs/install.md#homebrew-mac-and-linux

brew install llama.cpp

***如果提示未安装brew 执行下面的命令

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

3.1.2 加载大模型(cli模式)

llama-cli -m /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged/Qwen3-4B-Instruct_q8_0.gguf

可在命令行跟大模型提问

3.1.3 以服务的模式加载大模型(server模式)

llama-server -m /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged/Qwen3-4B-Instruct_q8_0.gguf --port 8080 # Basic web UI can be accessed via browser: http://localhost:8080 # Chat completion endpoint: http://localhost:8080/v1/chat/completions

访问 http://localhost:8080

3.2 基于ollama 

-- 进入合并后的模型目录 cd /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged -- 创建模型 ollama create my-qwen3-4b-sft-merged -f Modelfile -- 启动模型 ollama run my-qwen3-4b-sft-merged

启动时候报错,这是因为我们使用的Qwen3模型,ollama还没有支持,建议使用llama.cpp方式测试部署。

四、将模型上传至modelscope

4.1 获取token

https://www.modelscope.cn/my/access/token

4.2 获取用户名

https://www.modelscope.cn/my/settings/account

4.3 上传模型

-- 上传gguf 版本 modelscope upload 你的用户名/qwen3-4b-sft-merged-gguf /mnt/workspace/LLaMA-Factory/saves/qwen3_sft_merged --token 你的token

4.4 查看上传结果

https://www.modelscope.cn/my/myspace

4.5 下载上传之后的模型

https://www.modelscope.cn/models/tadexinnian/qwen3-4b-sft-merged-gguf

-- 安装modelscope pip install modelscope -- 下载模型 modelscope download --model tadexinnian/qwen3-4b-sft-merged-gguf

以windows 下载为例子,模型最终下载保存在

C:\Users\PC\.cache\modelscope\hub\models\tadexinnian\qwen3-4b-sft-merged-gguf\Qwen3-4B-Instruct_q8_0.gguf

五、结语

本文完整呈现了微调后大模型从格式转换到实际部署的全流程实践,通过 llama.cpp 实现 HF 模型到 GGUF 格式的转换,借助 llama.app 完成 CLI 与 Server 模式部署,并记录了 Ollama 部署 Qwen3 模型时的兼容问题,同时演示了 GGUF 模型在 ModelScope 平台的上传与下载流程。

整套方案以 llama.cpp 工具链为核心,步骤清晰、可直接复现,为轻量化大模型的本地部署与模型分享提供了一套实用的工程化参考,也为后续同类模型的落地与优化奠定了基础。

Read more

LVGL图形界面开发教程:智能家居面板设计完整指南

以下是对您提供的博文《LVGL图形界面开发教程:智能家居面板设计完整指南》的 深度润色与重构版本 。本次优化严格遵循您的全部要求: ✅ 彻底去除AI痕迹,语言自然、专业、有“人味”,像一位深耕嵌入式GUI多年的工程师在技术博客中娓娓道来; ✅ 打破模板化结构,取消所有“引言/概述/总结”等刻板标题,全文以 真实开发流 组织:从一个具体痛点切入,层层展开技术脉络,逻辑自洽、节奏紧凑; ✅ 将原五大模块(架构移植、UI布局、事件通信、资源优化、总结展望)有机融合进连贯叙述中,关键知识点穿插于实战上下文,不堆砌、不空谈; ✅ 每一处技术说明都附带 工程师视角的经验判断 ——为什么这么选?踩过什么坑?参数怎么调?数据手册里没写的潜规则是什么? ✅ 保留全部核心代码、表格、术语和热词( lvgl图形界面开发教程 等10个关键词自然出现7+次),但表达更凝练、更具现场感; ✅ 全文最终字数:

构建机器人集群系统:ROS 2分布式控制实战指南

构建机器人集群系统:ROS 2分布式控制实战指南 【免费下载链接】PX4-AutopilotPX4 Autopilot Software 项目地址: https://gitcode.com/gh_mirrors/px/PX4-Autopilot 本文将系统讲解如何基于ROS 2构建机器人集群系统,涵盖分布式控制技术原理、核心组件架构、快速部署流程及仓储场景应用。通过从零搭建多机器人协同框架,掌握分布式任务调度与异构机器人协作的关键技术,解决多机通信延迟、任务冲突等核心问题,为工业级机器人集群应用提供完整技术方案。 🔥 技术原理实现方案 机器人集群系统通过分布式控制架构实现多智能体协同,核心在于解决三个关键问题:节点间状态一致性、任务动态分配和实时通信保障。与传统集中式控制相比,分布式架构具有更高的容错性和扩展性,单个节点故障不会导致整个系统瘫痪。 分布式控制的核心算法包括: * 基于一致性协议的状态同步(如Raft算法) * 分布式任务分配的匈牙利算法 * 冲突避免的分布式路径规划 图1:机器人集群分布式控制架构示意图,展示状态感知、任务规划、执行控制的分层协作

OpenClaw爆火倒逼低代码AI变革:从工具赋能到生态重构

OpenClaw爆火倒逼低代码AI变革:从工具赋能到生态重构

2026年开春,科技圈最大的现象级事件,莫过于OpenClaw的“封神式”爆发。这个诞生仅4个月、GitHub星标突破28万、超越Linux内核登顶全球开源榜单的AI工具,以“AI智能体执行网关”的定位,打破了传统AI“只聊天不干活”的困局,用“自然语言指令→自动执行”的全闭环,让“一个人+AI=一个团队”从梦想照进现实。         当全网都在跟风“养龙虾”(网友对部署OpenClaw的趣味戏称),讨论其如何自动化处理办公、开发、运维等重复性工作时,深耕低代码领域的从业者们更敏锐地捕捉到一个信号:OpenClaw的爆火,本质是AI从“对话层”向“执行层”跨越的标志,而这恰恰是低代码AI长期以来的核心痛点。低代码作为“普惠开发”的核心载体,与AI的深度融合早已是行业共识,但如何让AI从“辅助配置”升级为“主动执行”,让低代码平台真正实现“零代码开发、全流程自动化”,始终没有明确的行业路径。         OpenClaw的出现,

2025年第27届中国机器人及人工智能大赛自主巡航实战经验分享

作为连续两届参加中国机器人及人工智能大赛并拿下国一的"老兵",我想跟大家分享一些在自主巡航项目中的实战经验。这个项目看起来简单,但真正做起来才发现里面有太多坑需要踩,希望我的一些经验能让你少走弯路。 一、项目实战理解 刚开始接触这个项目时,我和团队都以为主要难点在于算法的精巧设计。结果第一年比赛只拿了个国二,回来复盘才发现,比赛成败的关键不在于算法多高级,而在于系统的鲁棒性和稳定性。 场地中那些任务信息图像看似简单,但在不同光照、不同角度下识别难度差异很大。记得去年决赛时,有支985高校的队伍用了很牛的深度学习算法,结果在现场因为光照问题,识别率直接掉到40%以下,连基本的任务点都没完成。 核心任务拆解: * 语音识别与播报(10分) * 三次任务点识别与到达(60分) * 终点到达(10分) * 技术文档(10分) 首先要确保60分的基础分稳稳拿到,才有机会冲击更高分数。 二、软件架构实战经验 ROS框架设计 第一年我们用了单体架构,所有功能都堆在一个节点里,结果调试和找bug特别痛苦。第二年重构为多节点设计: 这种模块化设计好处太多了: 1. 团