LlamaFactory v0.9.4 正式发布:告别 2025,全面升级的 LLM 微调框架来了

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2025 年 12 月 31 日,LlamaFactory 正式发布 v0.9.4 版本。这是一个具有里程碑意义的版本,被官方定义为 不可变发布版本(Immutable Release),仅允许修改发布标题和发布说明内容。
该版本以 “Farewell to 2025” 为主题,向整个 2025 年告别,同时也宣布 LlamaFactory 将在 2026 年持续为社区提供简单、高效、先进的大模型微调框架

以下为 LlamaFactory v0.9.4 的完整更新内容详解。


一、重要变更(Breaking Changes)

本次版本包含多项对使用者影响较大的变更,升级前请务必关注:

  1. 项目仓库名称变更
    仓库名称已从 LLaMA-Factory 更新为 LlamaFactory,后续所有官方资源将统一使用新名称。
  2. Python 版本要求升级
    Python 3.9 与 3.10 已正式废弃。
    LlamaFactory 现在要求 Python 3.11 – 3.13
  3. 包管理工具迁移
    项目从 pip 迁移至 uv。
    安装方式更新为:
    使用 uv pip install llamafactory
  4. 官方博客上线
    LlamaFactory 官方博客已正式发布:
    https://blog.llamafactory.net/en/

二、重磅新特性(New Features)

v0.9.4 在算法、训练后端和工程能力上实现了全面增强:

  • 🔥 支持 正交微调(Orthogonal Fine-Tuning, OFT)
  • 🔥 支持 新增 Token 的语义初始化(Semantic Initialization)
  • 🔥 支持通过 MCoreAdapter 进行 Megatron-LM 训练
  • 🔥 支持 KTransformers 后端
  • 支持 MPO 算法
  • 支持 FP8 精度训练
  • 支持 Transformers v5
  • 支持在函数调用消息中同时使用 推理内容与纯文本
  • 支持 DeepSpeed AutoTP
  • 支持 高效的 NPU 融合算子
  • 支持 TRL 0.24

这些新特性进一步提升了 LlamaFactory 在大规模模型训练、分布式效率、硬件适配以及前沿算法支持方面的能力。


三、模型支持更新(Models)

v0.9.4 新增与扩展了大量前沿模型与多模态模型支持,覆盖文本、视觉及多任务场景:

  • Falcon H1
  • Kimi-VL
  • GLM-4.5V
  • Gemma3n
  • Granite4
  • Qwen3-2507
  • MiniCPM-V 4.0
  • Intern-S1-mini
  • Seed-OSS
  • MiniCPM-V 4.5
  • InternVL-3.5
  • ERNIE-4.5-Text
  • ERNIE-4.5-VL
  • Ling-V2
  • Qwen3-VL
  • Qwen3-Omni
  • Hunyuan-mt
  • GLM-4.6V
  • Ministral 3
  • VibeThinker
  • MiMo-V2-Flash
  • MiniMax-M1
  • MiniMax-M2

该版本在多模态、视觉语言建模和新一代通用模型支持方面达到了新的高度。


四、总结

代码地址:github.com/hiyouga/LlamaFactory

LlamaFactory v0.9.4 不只是一次常规更新,而是一次承前启后的关键版本:

  • 告别 2025,面向 2026 全面进化
  • Python、工具链与训练体系全面升级
  • 覆盖最新算法、硬件能力与模型生态
  • 继续坚持“简单 + 高效”的 LLM 微调理念

如果你正在使用或计划使用 LlamaFactory 进行大模型训练与微调,v0.9.4 是一个值得重点关注和升级的版本

告别 2025,下一站,2026。

Read more

AI辅助编程工具(三) - Github Copilot

AI辅助编程工具(三) - Github Copilot

三、Github Copilot 简单来说,GitHub Copilot 是由 GitHub 和 OpenAI 共同开发的人工智能编程助手。它基于 OpenAI 的 GPT-4 等大模型,并在海量的开源代码库上进行过训练。 它的工作原理: 它不只是一个简单的“自动补全”工具。它会读取你的代码上下文——包括你刚刚写的变量名、光标所在的文件、甚至是项目中其他相关文件的代码——然后实时预测你接下来想写什么。 对于前端开发者而言,它最迷人的地方在于:它懂 React、懂 Vue、懂 Tailwind CSS,甚至懂你那不规范的代码风格。 3.1 GitHub Copilot 安装与使用 安装前的准备 在开始之前,你需要确保拥有以下条件: 1. GitHub 账号:如果没有,请先去 GitHub

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者

【AI大模型入门】03:文心一言——百度的AI战略,国产大模型的先行者 📖 阅读时长:约8分钟 🎯 适合人群:想了解国产大模型发展、或百度AI生态的用户 💡 你将学到:文心一言是什么、背后的技术、核心能力、使用方法 一、文心一言的"出生"背景 2023年3月,就在ChatGPT席卷全球的浪潮里,百度率先发布了国内第一个对标ChatGPT的大模型产品——文心一言(英文名:ERNIE Bot)。 这一步棋走得很早,也很大胆。当时百度创始人李彦宏亲自站台发布,引发了全社会对"国产AI能否追上ChatGPT"的大讨论。 时间轴: 2022.11 ChatGPT 发布,震惊世界 2023.03 文心一言 发布,中国第一个 2023.10 文心大模型4.

从论文到实践:Stable Diffusion模型一键生成高质量AI绘画

从论文到实践:Stable Diffusion模型一键生成高质量AI绘画

🏡作者主页:点击!  🤖编程探索专栏:点击! ⏰️创作时间:2024年12月24日10点02分 神秘男子影,   秘而不宣藏。 泣意深不见, 男子自持重,    子夜独自沉。  AI绘画一键生成美图-变成画家 本地部署SD模型,一键即可生成自己想要绘制的图画,本文包括论文原理讲解和代码复现 论文讲解 论文题目:High-Resolution Image Synthesis with Latent Diffusion Models(基于潜在扩散模型的高分辨率图像合成) 论文被计算机视觉顶会CVPR 2022收录 Stable diffusion是一个基于Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。它建立在自注意力机制和扩散过程的基础上。它的设计灵感来自于扩散过程模型(Diffusion Models),这些模型在自然图像建模领域取得了巨大成功。 Stable Diffusion通过一系列的扩散步骤来生成图像。在每一步中,模型逐渐“扩散”图像,从含有较少信息的噪声开始,到包含更多细节的图像。

Jetson 上 OpenClaw + Ollama + llama.cpp 的联动配置模板部署大模型

Jetson 上我建议的联动方式是:OpenClaw -> Ollama(主模型,原生 API)+ llama.cpp(备用/低资源模型,OpenAI 兼容 API)+ Ollama embeddings(memorySearch)。 这样做的原因是,OpenClaw 官方把 Ollama + openclaw onboard 作为最低冲突的本地方案;同时它也支持把 vLLM / LiteLLM / 自定义 OpenAI-compatible 本地代理 作为额外 provider 接进来。Ollama 这边,OpenClaw 明确推荐走原生 http://host:11434,不要给它配 /v1,否则工具调用会变差;而 llama.cpp 的 llama-server