LlamaFactory v0.9.4 正式发布:告别 2025,全面升级的 LLM 微调框架来了

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2025 年 12 月 31 日,LlamaFactory 正式发布 v0.9.4 版本。这是一个具有里程碑意义的版本,被官方定义为 不可变发布版本(Immutable Release),仅允许修改发布标题和发布说明内容。
该版本以 “Farewell to 2025” 为主题,向整个 2025 年告别,同时也宣布 LlamaFactory 将在 2026 年持续为社区提供简单、高效、先进的大模型微调框架

以下为 LlamaFactory v0.9.4 的完整更新内容详解。


一、重要变更(Breaking Changes)

本次版本包含多项对使用者影响较大的变更,升级前请务必关注:

  1. 项目仓库名称变更
    仓库名称已从 LLaMA-Factory 更新为 LlamaFactory,后续所有官方资源将统一使用新名称。
  2. Python 版本要求升级
    Python 3.9 与 3.10 已正式废弃。
    LlamaFactory 现在要求 Python 3.11 – 3.13
  3. 包管理工具迁移
    项目从 pip 迁移至 uv。
    安装方式更新为:
    使用 uv pip install llamafactory
  4. 官方博客上线
    LlamaFactory 官方博客已正式发布:
    https://blog.llamafactory.net/en/

二、重磅新特性(New Features)

v0.9.4 在算法、训练后端和工程能力上实现了全面增强:

  • 🔥 支持 正交微调(Orthogonal Fine-Tuning, OFT)
  • 🔥 支持 新增 Token 的语义初始化(Semantic Initialization)
  • 🔥 支持通过 MCoreAdapter 进行 Megatron-LM 训练
  • 🔥 支持 KTransformers 后端
  • 支持 MPO 算法
  • 支持 FP8 精度训练
  • 支持 Transformers v5
  • 支持在函数调用消息中同时使用 推理内容与纯文本
  • 支持 DeepSpeed AutoTP
  • 支持 高效的 NPU 融合算子
  • 支持 TRL 0.24

这些新特性进一步提升了 LlamaFactory 在大规模模型训练、分布式效率、硬件适配以及前沿算法支持方面的能力。


三、模型支持更新(Models)

v0.9.4 新增与扩展了大量前沿模型与多模态模型支持,覆盖文本、视觉及多任务场景:

  • Falcon H1
  • Kimi-VL
  • GLM-4.5V
  • Gemma3n
  • Granite4
  • Qwen3-2507
  • MiniCPM-V 4.0
  • Intern-S1-mini
  • Seed-OSS
  • MiniCPM-V 4.5
  • InternVL-3.5
  • ERNIE-4.5-Text
  • ERNIE-4.5-VL
  • Ling-V2
  • Qwen3-VL
  • Qwen3-Omni
  • Hunyuan-mt
  • GLM-4.6V
  • Ministral 3
  • VibeThinker
  • MiMo-V2-Flash
  • MiniMax-M1
  • MiniMax-M2

该版本在多模态、视觉语言建模和新一代通用模型支持方面达到了新的高度。


四、总结

代码地址:github.com/hiyouga/LlamaFactory

LlamaFactory v0.9.4 不只是一次常规更新,而是一次承前启后的关键版本:

  • 告别 2025,面向 2026 全面进化
  • Python、工具链与训练体系全面升级
  • 覆盖最新算法、硬件能力与模型生态
  • 继续坚持“简单 + 高效”的 LLM 微调理念

如果你正在使用或计划使用 LlamaFactory 进行大模型训练与微调,v0.9.4 是一个值得重点关注和升级的版本

告别 2025,下一站,2026。

Read more

VSCode中GitHub Copilot的大模型体系、订阅策略与 Agent 模式模型管理机制

一、引言 随着大语言模型(Large Language Models, LLMs)在软件工程领域的广泛应用,智能编程助手逐渐成为现代开发工具链的重要组成部分。其中,由 GitHub 推出的 GitHub Copilot 已成为最具影响力的 AI 编程辅助工具之一,并深度集成于 Visual Studio Code 等主流开发环境。 早期版本的 Copilot 主要依赖单一模型进行代码补全,而近年来其架构已经演进为 多模型(multi-model)驱动的智能编程平台。该平台不仅支持来自多个 AI 厂商的大模型,还通过 Agent 模式、模型路由与按需调用机制提升复杂软件开发任务的自动化程度。 本文将系统介绍以下四个方面: 1. VS Code 中 GitHub Copilot 的 大模型支持体系 2. Copilot 的 订阅策略与计费机制

DeepSeek-R1-Distill-Llama-8B本地部署指南:3步实现高性能AI推理

DeepSeek-R1-Distill-Llama-8B本地部署指南:3步实现高性能AI推理 【免费下载链接】DeepSeek-R1-Distill-Llama-8B开源项目DeepSeek-RAI展示前沿推理模型DeepSeek-R1系列,经大规模强化学习训练,实现自主推理与验证,显著提升数学、编程和逻辑任务表现。我们开放了DeepSeek-R1及其精简版,助力研究社区深入探索LLM推理能力。【此简介由AI生成】 项目地址: https://ai.gitcode.com/hf_mirrors/deepseek-ai/DeepSeek-R1-Distill-Llama-8B 还在为复杂的大模型本地部署而头疼吗?🤔 DeepSeek-R1-Distill-Llama-8B作为DeepSeek-R1系列的精简版本,在保持强大推理能力的同时,显著降低了硬件要求。本文将带你通过环境检测→一键部署→性能调优的三步极简流程,在普通消费级GPU上也能体验专业级的AI推理性能。 一、环境准备:从零开始的部署基础 1.1 硬件兼容性快速检测 DeepSeek-R1-Distill-Llam

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

目录 1.MiniMax海螺AI视频简介 2.使用教程 1.MiniMax海螺AI视频简介 海螺视频,作为 MiniMax 旗下海螺 AI 平台精心打造的 AI 视频生成工具,致力于助力用户产出高品质视频内容。该工具依托 abab-video-1 模型,具备强大的文生视频功能。用户仅需输入关键词或简短语句,海螺视频就能据此创作出情节丰富的完整视频。此外,海螺视频运用 DiT 架构,能够精准模拟现实世界的物理规律,尤其在生成复杂场景与高动作场景时,展现出卓越的性能。 2.使用教程 点击如下链接,进入蓝耘元生代智算云平台主页 https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e 点击主页上方栏的“MaaS平台” 然后点击左侧栏的“视觉模型”  可以看到可以免费体验一次I2V-01图片生成视频  点击如下红框处将图片上传  例如输入如下的图片 例如想让小狗动起来,可以在如下红框处输入相应的指令,然后点击立即生成

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON