环境搭建
LLaMA-Factory 基于 Python 构建,依赖较多,建议优先使用 Conda 管理虚拟环境。克隆仓库后进入目录,创建名为 llama-factory 的虚拟环境并激活。
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
conda create -n llama-factory python=3.10
conda activate llama-factory
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txt
pip install -e ".[torch,metrics]"
⚠️ 注意:训练过程对显存要求较高,建议使用 CUDA 环境,GPU 显存至少预留 24GB(如 RTX 3090/4090),否则容易 OOM。
数据准备
工具支持多种数据格式,最通用的是 Alpaca 格式的 JSON 文件。每条数据包含指令、输入和输出字段。你可以整理自己的数据集,保存为 my_data.json 并放入 data/ 目录下。
[
{"instruction": "写一首关于春天的诗", "input": "", "output": "春风拂面花自开,柳绿桃红映山川..."},
{"instruction": "解释什么是机器学习", "input": "", "output": "机器学习是让计算机从数据中自动学习规律的技术..."}
]
启动训练
这里以多 GPU LoRA 微调 Qwen-7B 为例。首先参考 examples/accelerate 下的模板编写加速配置文件 config.yaml,设定分布式类型及混合精度等参数。
compute_environment: LOCAL_MACHINE
[]

