LLaMA-Factory 大模型微调实战指南
介绍使用 LLaMA-Factory 平台对 Qwen3 大模型进行 LoRA 微调的完整流程。内容包括环境安装(容器与编译)、数据集准备(Alpaca/Sharegpt 格式)、执行微调训练、批量推理评估(BLEU/ROUGE 指标)、LoRA 模型合并导出以及基于 Ollama+GGUF 的最终部署。适合希望快速上手大模型微调的开发人员参考。

介绍使用 LLaMA-Factory 平台对 Qwen3 大模型进行 LoRA 微调的完整流程。内容包括环境安装(容器与编译)、数据集准备(Alpaca/Sharegpt 格式)、执行微调训练、批量推理评估(BLEU/ROUGE 指标)、LoRA 模型合并导出以及基于 Ollama+GGUF 的最终部署。适合希望快速上手大模型微调的开发人员参考。

Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。
使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。
git clone https://github.com/hiyouga/LlamaFactory.git
cd LlamaFactory
cd docker/docker-cuda/
# Build the image
docker build -f ./docker/docker-cuda/Dockerfile \
--build-arg PIP_INDEX=https://pypi.org/simple \
--build-arg EXTRAS=metrics \
-t llamafactory:latest
# Run the container
docker run -dit --ipc=host --gpus=all \
-p 7860:7860 \
-p 8000:8000 \
--name llamafactory \
llamafactory:latest
# Enter the container
docker exec -it llamafactory bash
$ cd workspace
$ git clone https://github.com/hiyouga/LlamaFactory.git
$ docker run -d --network=host --restart=always --name=llamafactory-dev \
--gpus=all --ipc=host --ulimit memlock=-1 --ulimit stack=67108864 \
-v "$PWD":/workspace -w /workspace \
nvcr.io/nvidia/pytorch:25.08-py3 tail -f /dev/null
$ docker exec -it -u root llamafactory-dev bash
# 创建配置目录
$ mkdir -p ~/.pip
# 创建配置文件
$ cat > ~/.pip/pip.conf <<EOF
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple
trusted-host = pypi.tuna.tsinghua.edu.cn
EOF
$ pip uninstall -y torch torchvision torchaudio nvidia-cublas nvidia-cudnn-cu12
$ pip install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple --index-url https://download.pytorch.org/whl/cu130
$ pip install --upgrade nvidia-cublas nvidia-cudnn-cu13
cd LlamaFactory
$ pip install -e '.[torch,metrics]'
# 确认安装正常
$ llamafactory-cli train -h
# 确认 GPU 和 CUDA 环境正常
python import torch
torch.cuda.current_device()
torch.cuda.get_device_name(0)
torch.__version__
$ pip install modelscope
$ modelscope download --model LLM-Research/Meta-Llama-3-8B-Instruct --local_dir /workspace/Meta-Llama-3-8B-Instruct
$ pip install -U bitsandbytes -i https://pypi.tuna.tsinghua.edu.cn/simple
vim test-inf.py
import torch
import warnings
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig
# ===================== 核心修复:屏蔽警告 + 强制锁定 GPU =====================
warnings.filterwarnings('ignore', category=UserWarning, module='torch.cuda')
torch.cuda.set_device(0)
device = "cuda:0" if torch.cuda.is_available() else "cpu"
# ===============================================================================
# ===================== 4bit 量化配置(补装库后正常生效) =====================
bnb_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type="nf4"
)
# ===============================================================================
# ===================== 加载模型和 Tokenizer =====================
model_id = "/workspace/Meta-Llama-3-8B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_id)
tokenizer.pad_token = tokenizer.eos_token
# ===============================================================================
# ===================== 加载量化模型 =====================
model = AutoModelForCausalLM.from_pretrained(
model_id,
quantization_config=bnb_config,
torch_dtype=torch.bfloat16,
device_map=device,
trust_remote_code=True,
low_cpu_mem_usage=True
)
# ===============================================================================
# 验证 GPU 加载
assert next(model.parameters()).device == torch.device(device), "模型加载失败!未使用 GPU!"
print(f"✅ 模型已 100% 加载到 GPU → {torch.cuda.get_device_name(0)}")
print(f"✅ PyTorch 版本:{torch.__version__} | CUDA 版本:{torch.version.cuda}")
print(f"✅ 运行模式:4bit 无损量化 | 显存占用≈8.5GB (减半)")
# 原有对话逻辑
messages = [
{"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
{"role": "user", "content": "Who are you?"},
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(device)
terminators = [tokenizer.eos_token_id, tokenizer.convert_tokens_to_ids("<|eot_id|>")]
outputs = model.generate(
**inputs,
max_new_tokens=256,
eos_token_id=terminators,
do_sample=True,
temperature=0.6,
top_p=0.9,
pad_token_id=tokenizer.eos_token_id
)
response = tokenizer.decode(outputs[0][len(inputs["input_ids"][0]):], skip_special_tokens=True)
print("\n===== 🏴☠️ 海盗机器人回答 🏴☠️ =====")
print(response)

$ CUDA_VISIBLE_DEVICES=0 llamafactory-cli webchat \
--model_name_or_path /workspace/Meta-Llama-3-8B-Instruct \
--template llama3
* Running on local URL: http://0.0.0.0:7860
$ telnet localhost 7860
template:模型问答时所使用的 prompt 模板,不同模型使用各自的模版,否则会出现回答结果重复生成等奇怪现象。比如 Meta-Llama-3-8B 的 template 就是 llama3。


打开 WebUI:
cd LlamaFactory/
export USE_MODELSCOPE_HUB=1
llamafactory-cli webui
* Running on local URL: http://0.0.0.0:7860

魔搭社区集成了相当丰富的中文数据集,有很多分类可以选。

找一个角色扮演的数据集来微调(方便查看效果)。

在数据预览这里查看详细数据。

注意,llama-factory 目前只支持两种格式的数据集:Alpaca 和 Sharegpt 格式。


切换到数据集文件这边,打开 huanhuan.json 文件,看到它其实就是 Alpaca 格式的数据集,仅下载这一个文件即可。

在 llama-factory 添加数据集,不仅要把数据文件放到 data 目录下,还需要在配置文件 dataset_info.json 里面添加一条该数据集的记录。这样,新添加的数据集才能被 llama-factory 识别到。

这里保存之后,webui 那边会实时更新,不需要重启。

微调 Qwen3-1.7B-Base 基础大模型,方法选用 LoRA。

计算类型选择 BF16,暂不支持 FP4。

预热步数是学习率预热采用的步数,通常设置范围在 2-8 之间,这里配置为 4。

继续设置 LoRA 微调参数:

预览训练指令并开始训练。

llamafactory-cli train \
--stage sft \
--do_train True \
--model_name_or_path Qwen/Qwen3-1.7B-Base \
--preprocessing_num_workers 16 \
--finetuning_type lora \
--template qwen3 \
--flash_attn auto \
--dataset_dir data \
--dataset huanhuan \
--cutoff_len 1024 \
--learning_rate 5e-05 \
--num_train_epochs 4.0 \
--max_samples 100000 \
--per_device_train_batch_size 2 \
--gradient_accumulation_steps 4 \
--lr_scheduler_type cosine \
--max_grad_norm 1.0 \
--logging_steps 5 \
--save_steps 100 \
--warmup_steps 4 \
--packing False \
--enable_thinking True \
--report_to none \
--output_dir saves/Qwen3-1.7B-Base/lora/train_2026-01-02-06-40-31 \
--bf16 True \
--plot_loss True \
--trust_remote_code True \
--ddp_timeout 180000000 \
--include_num_input_tokens_seen True \
--optim adamw_torch \
--adapter_name_or_path saves/Qwen3-1.7B-Base/lora/train_2026-01-02-06-01-20 \
--lora_rank 8 \
--lora_alpha 256 \
--lora_dropout 0 \
--lora_target all
开始之后,会启动一个新的训练进程。
$ ps -ef
UID PID PPID C STIME TTY TIME CMD
root 437212019:59 pts/1 00:00:56 /usr/bin/python /usr/local/bin/llamafactory-cli webui
root 502437521:38 pts/1 00:00:23 /usr/bin/python /usr/local/bin/llamafactory-cli train saves/Qwen3-1.7B-Base/lora/train_2026-01-02-19-59-30/training_args.yaml
如果本地没有找到模型,会先自动下载模型:
[INFO|2026-01-02 21:38:43] llamafactory.hparams.parser:465 >> Process rank: 0, world size: 1, device: cuda:0, distributed training: False, compute dtype: torch.bfloat16
Downloading Model from https://www.modelscope.cn to directory: /root/.cache/modelscope/hub/models/Qwen/Qwen3-1.7B-Base
开始训练后可以查看进度条和损失值曲线。


看到类似下面'训练完毕'就代表微调成功。


微调成功后,我们得到了一个 Checkpoint 记录,下拉可以选择刚刚微调好的模型。

Checkpoint 在后台的存储位置是 saves/Qwen3-1.7B-Base/lora/:
$ ll saves/Qwen3-1.7B-Base/lora/train_2026-01-02-06-01-20/
total 50012
drwxr-xr-x 17 root root 4096 Jan 222:16 ./
drwxr-xr-x 5 root root 4096 Jan 2240 ../
-rw-r--r-- 1 root root 1518 Jan 222:16 README.md
-rw-r--r-- 1 root root 966 Jan 222:16 adapter_config.json
-rw-r--r-- 1 root root 34916720 Jan 222:16 adapter_model.safetensors
-rw-r--r-- 1 root root 707 Jan 222:16 added_tokens.json
-rw-r--r-- 1 root root 240 Jan 222:16 all_results.json
-rw-r--r-- 1 root root 4116 Jan 222:16 chat_template.jinja
drwxr-xr-x 2 root root 4096 Jan 2203 checkpoint-100/
drwxr-xr-x 2 root root 4096 Jan 2212 checkpoint-1000/
drwxr-xr-x 2 root root 4096 Jan 2213 checkpoint-1100/
drwxr-xr-x 2 root root 4096 Jan 2214 checkpoint-1200/
drwxr-xr-x 2 root root 4096 Jan 2215 checkpoint-1300/
drwxr-xr-x 2 root root 4096 Jan 2216 checkpoint-1400/
drwxr-xr-x 2 root root 4096 Jan 2216 checkpoint-1401/
drwxr-xr-x 2 root root 4096 Jan 2204 checkpoint-200/
drwxr-xr-x 2 root root 4096 Jan 2205 checkpoint-300/
drwxr-xr-x 2 root root 4096 Jan 2206 checkpoint-400/
drwxr-xr-x 2 root root 4096 Jan 2207 checkpoint-500/
drwxr-xr-x 2 root root 4096 Jan 2208 checkpoint-600/
drwxr-xr-x 2 root root 4096 Jan 2209 checkpoint-700/
drwxr-xr-x 2 root root 4096 Jan 2210 checkpoint-800/
drwxr-xr-x 2 root root 4096 Jan 2211 checkpoint-900/
-rw-r--r-- 1 root root 2258 Jan 2202 llamaboard_config.yaml
-rw-r--r-- 1 root root 1671853 Jan 2216 merges.txt
-rw-r--r-- 1 root root 81222 Jan 2216 running_log.txt
-rw-r--r-- 1 root root 613 Jan 2216 special_tokens_map.json
-rw-r--r-- 1 root root 11422654 Jan 2216 tokenizer.json
-rw-r--r-- 1 root root 5431 Jan 2216 tokenizer_config.json
-rw-r--r-- 1 root root 240 Jan 2216 train_results.json
-rw-r--r-- 1 root root 67870 Jan 2216 trainer_log.jsonl
-rw-r--r-- 1 root root 81507 Jan 2216 trainer_state.json
-rw-r--r-- 1 root root 6289 Jan 2216 training_args.bin
-rw-r--r-- 1 root root 735 Jan 2202 training_args.yaml
-rw-r--r-- 1 root root 48990 Jan 2216 training_loss.png
-rw-r--r-- 1 root root 2776833 Jan 2216 vocab.json
把窗口切换到 chat,可以点击加载模型。

加载好之后就可以在输入框发送问题,测试微调模型的效果。

[INFO|modeling_utils.py:1169]2026-01-02 21:53:37,228 >> loading weights file /root/.cache/modelscope/hub/models/Qwen/Qwen3-1___7B-Base/model.safetensors
对 LoRA 微调模型进行推理,需要应用动态合并 LoRA 适配器的推理技术。需要通过 finetuning_type 参数告诉使用了 LoRA 训练,然后将 LoRA 的模型位置通过 adapter_name_or_path 参数即可。
--finetuning_type lora \
--adapter_name_or_path saves/Qwen3-1.7B-Base/lora/train_2026-01-02-06-01-20 \
但是渲染只训练了一次的效果很差。

如果想切换回微调之前的模型,只需先卸载模型,选择想要的 Checkpoint,然后再加载模型即可。
如果想重新微调,需要修改红框中的两个值。

在经过 3 个 Epoch 的训练之后,效果也越来越好了。


上文中的人工交互测试实际上并不严谨,通常我们需要进行自动化的批量测试。例如:使用自动化的 bleu 和 rouge 等常用的文本生成指标来做评估。
pip install jieba
pip install rouge-chinese
pip install nltk

与训练脚本主要的参数区别如下 3 个:
llamafactory-cli train \
--stage sft \
--model_name_or_path Qwen/Qwen3-1.7B-Base \
--preprocessing_num_workers 16 \
--finetuning_type lora \
--quantization_method bnb \
--template qwen3 \
--flash_attn auto \
--dataset_dir data \
--eval_dataset huanhuan \
--cutoff_len 1024 \
--max_samples 100000 \
--per_device_eval_batch_size 4 \
--predict_with_generate True \
--report_to none \
--max_new_tokens 512 \
--top_p 0.7 \
--temperature 0.95 \
--output_dir saves/Qwen3-1.7B-Base/lora/eval_2026-01-02-19-59-30 \
--trust_remote_code True \
--ddp_timeout 180000000 \
--do_predict True \
--adapter_name_or_path saves/Qwen3-1.7B-Base/lora/train_2026-01-02-06-40-31
完成后查看微调质量评估结果,下面是训练效果评估指标。
质量类指标:BLEU-4 + ROUGE-1/2/L,衡量模型生成文本的好坏、和标准答案的匹配度、内容质量优劣。
如果是文本摘要任务,那么 rouge-1 一般 20-40,rouge-2 5-15,rouge-L 10-25;如果是开放问答 / 对话 / 指令遵循任务,那么 rouge-1 8-15,rouge-2 1-3,rouge-L 3-6。下列数值完全落在这个区间内,是标准水平。
性能类指标:耗时 / 吞吐量 / 加载时间,衡量模型推理速度、效率、硬件利用率。
通过对比 1 Epoch 和 3 Epoch 微调的结果可以看出,多轮训练后的效果会更好一些。
3 Epoch

1 Epoch

训练后也会在 output_dir 下看到如下新文件:
$ ll saves/Qwen3-1.7B-Base/lora/eval_2026-01-02-19-59-30
-rw-r--r-- 1 root root 331 Jan 3 03:36 all_results.json
-rw-r--r-- 1 root root 8123325 Jan 3 03:36 generated_predictions.jsonl
-rw-r--r-- 1 root root 465 Jan 223:19 llamaboard_config.yaml
-rw-r--r-- 1 root root 331 Jan 3 03:36 predict_results.json
-rw-r--r-- 1 root root 7492 Jan 3 03:36 running_log.txt
-rw-r--r-- 1 root root 22264 Jan 3 03:35 trainer_log.jsonl
-rw-r--r-- 1 root root 566 Jan 223:19 training_args.yaml
通过不断'炼丹'直到效果满意后就可以导出模型了。即:把训练的 LoRA 模型和原始 Base 模型进行融合,输出一个完整的模型文件。
检查点路径选择我们刚刚微调好的模型,切换到 export,填写导出目录 output/qwen3-1.7b-huanhuan。

导出完成之后就可以在 output 目录下看到 qwen3-1.7b-huanhuan 目录了。
$ cd LlamaFactory
$ ll -h output/Qwen3-1.7B-huanhuan/
total 3.3G
drwxr-xr-x 2 root root 4.0K Jan 222:27 ./
drwxr-xr-x 3 root root 4.0K Jan 222:27 ../
-rw-r--r-- 1 root root 381 Jan 222:27 Modelfile
-rw-r--r-- 1 root root 707 Jan 222:27 added_tokens.json
-rw-r--r-- 1 root root 4.1K Jan 222:27 chat_template.jinja
-rw-r--r-- 1 root root 1.4K Jan 222:27 config.json
-rw-r--r-- 1 root root 117 Jan 222:27 generation_config.json
-rw-r--r-- 1 root root 1.6M Jan 222:27 merges.txt
-rw-r--r-- 1 root root 3.3G Jan 222:27 model.safetensors
-rw-r--r-- 1 root root 613 Jan 222:27 special_tokens_map.json
-rw-r--r-- 1 root root 11M Jan 222:27 tokenizer.json
-rw-r--r-- 1 root root 5.4K Jan 222:27 tokenizer_config.json
-rw-r--r-- 1 root root 2.7M Jan 222:27 vocab.json
这里用 Ollama + GGUF 进行部署。
其中,GGUF 是大模型的存储格式,可以对模型进行高效的压缩,减少模型的大小与内存占用,从而提升模型的推理速度和效率。如下,安装 GGUF 并将微调后大模型的格式进行转换。
$ git clone https://github.com/ggerganov/llama.cpp.git
$ cd llama.cpp/gguf-py
$ pip install --editable .
$ cd llama.cpp
$ python convert_hf_to_gguf.py /workspace/LlamaFactory/output/Qwen3-1.7B-huanhuan/
# 生成 xxx.gguf 格式文件。
$ ll /workspace/LlamaFactory/output/Qwen3-1.7B-huanhuan/
-rw-r--r-- 1 root root 381 Jan 222:27 Modelfile
-rw-r--r-- 1 root root 3447348896 Jan 3 05:13 Qwen3-1.7B-huanhuan-BF16.gguf
另外,Ollama 是大模型推理框架,适用于个人环境使用,简单而高效。
$ curl -fsSL https://ollama.com/install.sh |sh
$ ollama serve
$ ollama create qwen3-huanhuan -f /workspace/LlamaFactory/output/Qwen3-1.7B-huanhuan/Modelfile
$ ollama run qwen3-huanhuan

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online