基于 LLaMA-Factory 微调 Qwen3.5-4B 构建医疗 AI 助手
介绍使用 LLaMA-Factory 框架微调 Qwen3.5-4B 模型以构建医疗 AI 助手的完整流程。涵盖硬件要求、环境配置、数据集准备、LoRA 微调参数设置、推理测试及模型导出部署。包含显存优化方案、常见训练问题排查及医疗场景下的免责声明。

介绍使用 LLaMA-Factory 框架微调 Qwen3.5-4B 模型以构建医疗 AI 助手的完整流程。涵盖硬件要求、环境配置、数据集准备、LoRA 微调参数设置、推理测试及模型导出部署。包含显存优化方案、常见训练问题排查及医疗场景下的免责声明。

**核心工具链:**LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集
Qwen3.5 是阿里发布的千问系列模型,4B 参数量兼顾效果与显存友好;LLaMA-Factory 是开源社区成熟的微调框架。
硬件要求:
| 微调方式 | 4B 模型显存需求 | 推荐显卡 |
|---|---|---|
| LoRA (16-bit) | ~10-12 GB | RTX 4070 / RTX 3090 |
| QLoRA (8-bit) | ~6-8 GB | RTX 4060 / RTX 3070 |
| QLoRA (4-bit) | ~4-6 GB | RTX 3060 |
软件环境建议 Python 3.11+,PyTorch 2.0 以上,CUDA 12.x。
# 安装 modelscope
pip install modelscope
# 方式一:Python 代码下载
from modelscope import snapshot_download
model_dir = snapshot_download('Qwen/Qwen3.5-4B')
print(f"模型已下载到:{model_dir}")
# 方式二:命令行下载
# modelscope download --model Qwen/Qwen3.5-4B --local_dir ./models/Qwen3.5-4B
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e .
pip install -r requirements/metrics.txt
# 如果需要 DeepSpeed 加速(可选)
pip install -r requirements/deepspeed.txt
运行测试命令确认环境:
llamafactory-cli version
数据集格式示例如下:
[
{
"instruction": "你是一个专业的医疗助手,请根据患者描述给出建议。",
"input": "我最近总是头痛,尤其是下午的时候,已经持续一周了。",
"output": "持续性头痛需要关注。建议您先排除以下几个常见原因:1)睡眠质量,2)用眼过度,3)颈椎问题。如果休息后仍不缓解,建议到医院神经内科就诊,做个头部 CT 检查。"
}
]
将处理好的数据放到 data/ 目录下,并在 data/dataset_info.json 中注册:
{
"medical_qa": {
"file_name": "medical_qa.json",
"columns": {
"prompt": "instruction",
"query": "input",
"response": "output"
}
}
}
配置文件位于 examples/train_lora/qwen35_medical_lora.yaml:
### 模型配置 ###
model_name_or_path: ./models/Qwen3.5-4B
trust_remote_code: true
### 微调方法 ###
stage: sft
do_train: true
finetuning_type: lora
lora_rank: 64
lora_alpha: 128
lora_target: all
### 数据集配置 ###
dataset: medical_qa
template: qwen3
cutoff_len: 2048
preprocessing_num_workers: 8
### 训练参数 ###
output_dir: ./output/qwen35_medical_lora
per_device_train_batch_size: 2
gradient_accumulation_steps: 8
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
logging_steps: 10
save_steps: 500
### 显存优化 ###
bf16: true
gradient_checkpointing: true
启动训练:
llamafactory-cli train examples/train_lora/qwen35_medical_lora.yaml
监控 loss 曲线:
tensorboard --logdir=./output/qwen35_medical_lora/runs
快速测试命令:
llamafactory-cli chat examples/inference/qwen35_medical_lora.yaml
推理配置文件 qwen35_medical_lora.yaml:
model_name_or_path: ./models/Qwen3.5-4B
adapter_name_or_path: ./output/qwen35_medical_lora
template: qwen3
finetuning_type: lora
合并 LoRA 权重:
llamafactory-cli export examples/merge_lora/qwen35_medical_merge.yaml
合并配置:
model_name_or_path: ./models/Qwen3.5-4B
adapter_name_or_path: ./output/qwen35_medical_lora
template: qwen3
finetuning_type: lora
export_dir: ./models/Qwen35-Medical
export_size: 2
export_device: cuda
export_legacy_format: false
vLLM 部署示例:
pip install vllm
vllm serve ./models/Qwen35-Medical --port 8000
或使用 LLaMA-Factory 内置 API 服务:
API_PORT=8000 llamafactory-cli api examples/inference/qwen35_medical.yaml
per_device_train_batch_size,启用 gradient_checkpointing,或上 4-bit 量化。医疗领域的 AI 应用一定要注意:模型输出仅供参考,不能替代专业医生的诊断。在产品设计时要做好免责声明和人工审核机制。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online