Qwen3-VL 微调全流程:从环境搭建到 vLLM 部署
本文旨在详细介绍使用 LLaMA-Factory 对多模态大模型(如 Qwen3-VL)进行 SFT 微调的完整链路,涵盖环境配置、数据集构造、LoRA 训练与合并,以及基于 vLLM 的高并发部署方案。
1. 环境准备
获取 LLaMA-Factory
推荐使用 Git 克隆项目,效率更高:
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
若网络受限,也可下载压缩包解压至本地。
Python 依赖安装
创建虚拟环境并安装核心依赖。建议指定清华源加速下载:
conda create -n llama_env python=3.12
conda activate llama_env
cd LLaMA-Factory
pip install -e ".[torch,metrics]" --no-build-isolation -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/
2. 模型下载
从 ModelScope 或 HuggingFace 下载基础模型。以 Qwen3-VL-2B-Instruct 为例:
modelscope download --model Qwen/Qwen3-VL-2B-Instruct --local_dir ./qwen3_vl_model
确保路径在后续配置中正确引用。
3. 启动微调 (SFT)
在 Linux 环境下,命令行是最高效的训练方式。我们首先使用官方示例数据集验证流程。
修改配置文件
进入 examples/train_lora 目录,编辑对应模型的 YAML 文件(如 qwen2_5vl_lora_sft.yaml)。关键配置说明如下:
### model
model_name_or_path: /data/hcb/LLaMA-Factory-main/qwen3_vl_model # 替换为你的模型路径
image_max_pixels: 262144
video_max_pixels: 16384
trust_remote_code: true
### method
stage: sft
do_train: true
finetuning_type: lora
lora_rank: 8
lora_target: all
### dataset


