Qwen3 模型 LoRA 微调实战:基于 LLaMA-Factory
环境搭建与安装
首先准备好开发环境。LLaMA-Factory 是一个开源项目,文档和源码都在 GitHub 上。
# 创建 conda 环境
conda create -n llama_factory_Qwen3 python=3.11 -y
conda activate llama_factory_Qwen3
# 克隆项目并安装
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
如果遇到 git 拉取失败,可以尝试清理 DNS 缓存后重试:
ipconfig /flushdns
数据集准备
项目支持 Alpaca 和 ShareGPT 两种主流格式。如果你有自己的数据,需要修改 data/dataset_info.json 进行注册。
1. Alpaca 格式
指令监督微调(Instruct Tuning)通过让模型学习指令和回答来优化表现。关键字段包括 instruction(人类指令)、input(人类输入)、output(模型回答)。如果指定了 system 列,它会被作为系统提示词;history 则用于多轮对话训练。
单轮对话示例:
{"instruction":"计算这些物品的总费用。","input":"输入:汽车 - $3000,衣服 - $100,书 - $20。","output":"汽车、衣服和书的总费用为 $3000 + $100 + $20 = $3120。"}
多轮对话示例:
[{"instruction":"今天的天气怎么样?","input":"","output":"今天的天气不错,是晴天。",



