LLaMA-Factory 微调多模态大模型 Qwen3-VL
1. 显卡驱动
- 显卡型号:NVIDIA GeForce RTX 3090 24G
- 显卡驱动:NVIDIA-SMI 535.171.04
- CUDA: 12.2 ,Driver Version: 535.171.04
微调 Qwen3-VL-2B 模型,至少需要 12G 显存
2. 模型微调
项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持 Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM 3 / MiniCPM-o-2.6 等大模型。下面以微调 Qwen3-VL-2B-Instruct 作为例子进行说明。
微调之前,请先下载 Qwen3-VL 基础模型。下载方法可以选择 modelscope 和 huggingface,国内建议选择 modelscope,避免网络问题。
modelscope 下载 Qwen3-VL-2B-Instruct 方法,模型默认保存在 ~/.cache/modelscope/hub/models/:
# 使用 modelscope 下载模型 Qwen3-VL-2B-Instruct # 模型保持在 ~/.cache/modelscope/hub/models/
modelscope download --model Qwen/Qwen3-VL-2B-Instruct
微调其他 Qwen3-VL 版本,请参考地址:
- https://www.modelscope.cn/models/Qwen/Qwen3-VL-2B-Instruct
- https://www.modelscope.cn/models/Qwen/Qwen3-VL-4B-Instruct
- https://www.modelscope.cn/models/Qwen/Qwen3-VL-8B-Instruct
LLaMA-Factory 安装教程,请参考官方文档:
安装好 LLaMA-Factory 后,激活环境,然后终端输入(默认端口是 7860):
export CUDA_VISIBLE_DEVICES=0 # 指定运行 GPU
export GRADIO_SERVER_PORT=30000 # 指定 gradio 的端口 (默认是 7860,这里修改为 30000)
export GRADIO_TEMP_DIR="~/.cache/gradio" # 指定 gradio 临时缓存路径,解决上传图片权限的问题
llamafactory-cli webui # 启动 llamafactory web 服务
浏览器打开 url http://0.0.0.0:30000/(http://ip:port,默认端口是 7860,为避免端口冲突,可以通过 export GRADIO_SERVER_PORT=30000 修改端口),并按照配置如下信息:


