LLaMA Factory 大模型微调实战指南
LLaMA Factory 是一个高效的大型语言模型训练与微调平台。它允许用户在无需编写代码的情况下,在本地完成上百种预训练模型的微调。支持多种模型架构(如 LLaMA、Qwen、Yi 等)、训练算法(SFT、DPO、PPO 等)以及量化技术(QLoRA)。
环境准备与安装
CUDA 配置
确保你的 GPU 支持 CUDA。可以在 NVIDIA 官网查询兼容性。
-
检查系统环境:在终端运行
uname -m && cat /etc/*release,确认是 x86_64 且 Linux 版本兼容。 -
检查编译器:运行
gcc --version,确保已安装 gcc。 -
安装 CUDA:推荐版本 12.2。如果之前安装过旧版本,需先卸载。例如使用
sudo /usr/local/cuda-12.1/bin/cuda-uninstaller。若命令不可用,可手动清理目录并重新运行安装脚本。wget https://developer.download.nvidia.com/compute/cuda/12.2.0/local_installers/cuda_12.2.0_535.54.03_linux.run sudo sh cuda_12.2.0_535.54.03_linux.run*注意:在安装前建议取消 Driver 的自动安装选项,以免冲突。
安装完成后,输入 nvcc -V 验证版本号。
部署 LLaMA Factory
基础环境建议:Ubuntu 22.04, Python 3.10+, PyTorch 2.x。
# 创建虚拟环境
conda create -n llama_factory python=3.10 -y
conda activate llama_factory
# 安装 PyTorch (根据 CUDA 版本调整)
conda install pytorch==2.2.2 torchvision==0.17.2 torchaudio==2.2.2 pytorch-cuda=11.8 -c pytorch -c nvidia
pip install torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
# 克隆并安装项目
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"
如果遇到依赖冲突,可尝试 pip install --no-deps -e .。安装成功后,运行 llamafactory-cli version 校验。
启动 WebUI:
CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 GRADIO_SERVER_PORT=7860 llamafactory-cli webui
数据准备
所有数据集位于 data 目录下。自定义数据集需在 dataset_info.json 中注册。
指令监督微调格式
主要包含 instruction(指令)、input(输入)、output(回答)。可选 system(系统提示词)和 history(历史对话)。


