LLaMA-Factory 配置文件详解
在 LLM 微调实践中,合理的参数配置往往是决定训练效率与最终效果的关键。LLaMA-Factory 采用模块化的 YAML 配置系统,将任务划分为多个核心区块,这种设计不仅让参数管理更清晰,也便于不同场景下的配置复用。
配置文件基础结构
一个典型的配置文件通常包含以下六个主要部分:
model # 模型基础配置
method # 微调方法配置
dataset # 数据集处理配置
output # 训练输出配置
train # 训练过程配置
eval # 评估相关配置(可选)
项目内置了大量覆盖从基础 SFT 到高级 RLHF 任务的配置示例,可直接参考使用。例如 LoRA 微调、QLoRA 量化微调以及 DPO 对齐训练等场景都有对应的模板。
核心参数详解与调优
模型配置(model)
这一部分定义基础模型选择及相关技术参数,是微调的基石。关键参数包括:
model_name_or_path: meta-llama/Meta-Llama-3-8B-Instruct
trust_remote_code: true
rope_scaling: linear
flash_attn: auto
调优建议:
- 对于 7B/13B 模型,建议显式设置
flash_attn: true,这通常能带来约 30% 的训练速度提升。 - 处理超过 2k tokens 的长文本时,添加
rope_scaling: linear配合rope_factor: 2.0能有效解决位置编码外推问题。
若进行量化训练,需额外配置量化参数,比如 4-bit 量化:
quantization_method: BNB
quantization_bit: 4
quantization_type: nf4
微调方法配置(method)
方法配置区块决定微调模式和关键算法参数,直接影响微调效果。LLaMA-Factory 支持多种微调方法,常用配置如下:
stage: sft
do_train: true

