跳到主要内容
在 AutoDL 上利用 LLaMA-Factory 微调 GPT-OSS-20B 模型(LoRA) | 极客日志
Python AI 算法
在 AutoDL 上利用 LLaMA-Factory 微调 GPT-OSS-20B 模型(LoRA) 综述由AI生成 本教程详解基于 AutoDL 环境,通过 LLaMA-Factory 框架结合 LoRA 技术对 GPT-OSS-20B 模型进行微调,涵盖环境搭建、数据配置、训练监控及 vLLM 推理部署全流程。重点解决了 Token 不匹配、Python 版本兼容性等问题,并对比了 LoRA 直接加载与权重合并两种推理方案的优劣,适合有实际落地需求的开发者参考。
竹影清风 发布于 2026/4/5 更新于 2026/4/25 3 浏览基于 AutoDL 的 GPT-OSS-20B 模型 LoRA 微调实战
本教程详细讲解如何在 AutoDL 云 GPU 上使用 LLaMA-Factory 框架微调 GPT-OSS-20B 大语言模型,包含完整的环境配置、训练流程、权重合并以及 vLLM 推理部署全流程。
方案概览
组件 选择 说明 微调框架 LLaMA-Factory 0.9.4 开源的大模型训练框架 基础模型 GPT-OSS-20B 200 亿参数的 MoE 大模型 微调方式 LoRA 低秩适配,显存友好 推理引擎 vLLM 高性能推理加速 实验监控 SwanLab 可视化训练过程 GPU 资源 AutoDL H20 性价比较高的云 GPU 远程传文件 WinSCP Windows 上免费开源的图形化安全文件传输工具
环境配置
在 AutoDL 租用实例时,镜像配置非常关键,选错了会导致各种兼容性问题。
推荐配置 :
参数 选择 说明 基础镜像 PyTorch Ubuntu 22.04 Python 3.12 必须 3.11+,LLaMA-Factory 要求 CUDA 12.8 版本不能太低 PyTorch 2.8.0
⚠️ 注意 :GPT-OSS 模型默认会尝试使用 Flash Attention 3,但该特性目前仅支持 Hopper 架构 GPU(如 H100/H800 等)。
项目初始化
克隆 LLaMA-Factory
cd /root/autodl-tmp
mkdir -p /root/autodl-tmp
wget https://github.com/hiyouga/LLaMA-Factory/archive/refs/tags/v0.9.4.zip
unzip v0.9.4.zip
mv LlamaFactory-0.9.4 LLaMA-Factory
也可以将本地解压后的 zip 文件夹直接拖拽到 /root/autodl-tmp 目录。
安装依赖 cd /root/autodl-tmp/LLaMA-Factory
pip install -e '.[torch,metrics]' -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install evaluate scikit-learn -i https://pypi.tuna.tsinghua.edu.cn/simple
python -c "import llamafactory, torch; print('LLaMA-Factory 版本:', llamafactory.__version__)"
下载基础模型 使用 ModelScope 下载 GPT-OSS-20B 模型:
pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple
modelscope download --model openai-mirror/gpt-oss-20b \
--local_dir /root/autodl-tmp/models/gpt-oss-20b
💡 提示 :模型下载需要较长时间,建议在不需要使用 GPU 时就开始下载,这样可以节省 GPU 计费时间。
安装 SwanLab 安装完成后,需要在训练配置中进行设置(详见下一节)。
训练配置
数据集准备
identity_fixed :自定义模型身份信息 (填充了其中的 name 参数和 author 参数)
alpaca_en_demo :通用的指令微调数据集
[
{ "instruction" : "你好" , "input" : "" , "output" : "您好,我是智能小助手。" } ,
{ "instruction" : "你是谁?" , "input" : "" , "output" : "您好,我是智能小助手。我可以为您提供多种多样的服务。" }
]
配置文件 编辑 examples/train_lora/gpt_lora_sft.yaml:
model_name_or_path: /root/autodl-tmp/models/gpt-oss-20b
lora_rank: 8
lora_alpha: 16
lora_dropout: 0.05
stage: sft
do_train: true
finetuning_type: lora
lora_target: all
dataset: identity_fixed,alpaca_en_demo
template: gpt_oss
cutoff_len: 2048
max_samples: 1000
per_device_train_batch_size: 1
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
val_size: 0.1
eval_strategy: steps
eval_steps: 100
load_best_model_at_end: true
bf16: true
gradient_checkpointing: true
report_to: swanlab
run_name: gpt-oss-20b-lora
训练步数计算 总样本 = 1090(数据集总量)
训练集 = 1090 × 0.9 = 981 个
有效 batch = 1 × 8 = 8
每轮步数 = 981 ÷ 8 ≈ 123 步
总步数 = 123 × 3 轮 = 369 步
开始训练 cd /root/autodl-tmp/LLaMA-Factory
llamafactory-cli train examples/train_lora/gpt_lora_sft.yaml \
2>&1 | tee logs/training_$(date +%Y%m%d_%H%M%S).log
训练过程中可以通过 SwanLab 查看实时的训练曲线,登录对应项目即可查看 loss 曲线、learning_rate 等指标。
权重合并(可选) 权重合并是将 LoRA 适配器与基础模型合并为一个完整的模型文件。这是可选步骤 ,不合并也可以直接进行推理。
为什么要合并? 方式 优点 缺点 合并后推理 配置简单,推理速度快 需要额外合并步骤 LoRA 直接加载 无需合并步骤 配置稍复杂
合并命令 cd /root/autodl-tmp/LLaMA-Factory
llamafactory-cli export \
--model_name_or_path /root/autodl-tmp/models/gpt-oss-20b \
--adapter_name_or_path saves/gpt-20b/lora/sft \
--export_dir models/gpt20b_lora_sft \
--export_size 2 \
--export_legacy_format false
--model_name_or_path:基础模型路径
--adapter_name_or_path:LoRA 权重保存路径
--export_dir:合并后模型的保存路径
vLLM 推理部署
安装 vLLM pip install vllm fastapi uvicorn pydantic -i https://pypi.tuna.tsinghua.edu.cn/simple
方案一:直接加载 LoRA(不合并权重)⭐推荐 这种方式不需要合并权重 ,直接动态加载 LoRA 适配器:
export FLASH_ATTN_FORCE_FA2=1
export DISABLE_FLASH_ATTN_3=1
vllm serve /root/autodl-tmp/models/gpt-oss-20b \
--enable-lora \
--lora-modules gpt-lora=/root/autodl-tmp/LLaMA-Factory/saves/gpt-20b/lora/sft \
--tokenizer /root/autodl-tmp/models/gpt-oss-20b \
--tensor-parallel-size=1 \
--trust-remote-code \
--enable-prefix-caching \
--gpu-memory-utilization 0.9 \
--host 0.0.0.0 \
--port 80 \
--api-key your-secret-api-key
curl -X POST "http://你的 IP:80/v1/chat/completions" \
-H "Authorization: Bearer your-secret-api-key" \
-H "Content-Type: application/json" \
-d '{ "model": "gpt-lora", "messages": [ {"role": "user", "content": "你好,请介绍一下你自己"} ], "temperature": 0.7, "max_tokens": 200 }'
方案二:使用合并后的模型 vllm serve /root/autodl-tmp/LLaMA-Factory/models/gpt20b_lora_sft \
--host 0.0.0.0 \
--port 80 \
--trust-remote-code \
--gpu-memory-utilization 0.9 \
--max-model-len 4096 \
--served-model-name gpt-procurement \
--api-key your-secret-api-key
curl -X POST "http://你的 IP:80/v1/chat/completions" \
-H "Authorization: Bearer your-secret-api-key" \
-H "Content-Type: application/json" \
-d '{ "model": "gpt-procurement", "messages": [ {"role": "user", "content": "你好,请介绍一下你自己"} ], "temperature": 0.7, "max_tokens": 200 }'
两种方案对比 对比项 方案一(LoRA 直接加载) 方案二(合并后使用) 是否需要合并 ❌ 不需要 ✅ 需要 配置复杂度 稍复杂 简单 推理速度 稍慢 快 显存占用 略高 略低 灵活切换 LoRA ✅ 支持 ❌ 不支持 推荐场景 开发测试 生产部署
常见问题汇总
问题 1:Token 不匹配错误 { "error" : { "message" : "Unexpected token 200002 while expecting start token 200006" , "type" : "BadRequestError" } }
原因 :GPT-OSS 模型的模板文件中使用了 <|end|> 作为结束 token,但与实际 tokenizer 不匹配。
修改 LlamaFactory-0.9.4/src/llamafactory/data/template.py 中的 gpt_oss 模板:
format_assistant=StringFormatter(slots=["{{content}}<|end|>" ])
format_assistant=StringFormatter(slots=["{{content}}" ])
问题 2:Python 版本不匹配 Package 'llamafactory' requires a different Python: 3.10 .16 not in '>=3.11.0'
conda create -n py311 python=3.11
conda activate py311
总结 本文详细记录了使用 LLaMA-Factory 在 AutoDL 上微调 GPT-OSS-20B 模型的完整流程,包括:
✅ 环境配置与依赖安装
✅ 数据集准备与配置
✅ 模型训练与监控
✅ LoRA 权重合并
✅ vLLM 推理部署
✅ 常见问题解决方案
环境配置:30 分钟
模型下载:1-2 小时(视网络情况)
模型训练:约 1 小时(369 步)
权重合并:10 分钟
参考资料 相关免费在线工具 加密/解密文本 使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
RSA密钥对生成器 生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
Mermaid 预览与可视化编辑 基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
随机西班牙地址生成器 随机生成西班牙地址(支持马德里、加泰罗尼亚、安达卢西亚、瓦伦西亚筛选),支持数量快捷选择、显示全部与下载。 在线工具,随机西班牙地址生成器在线工具,online
Gemini 图片去水印 基于开源反向 Alpha 混合算法去除 Gemini/Nano Banana 图片水印,支持批量处理与下载。 在线工具,Gemini 图片去水印在线工具,online
curl 转代码 解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online