DeepSeek-R1 模型微调概述
使用 LLaMA-Factory 进行模型微调具有多方面优势。它简化了大模型微调的过程,支持多种训练方法(如全量调参、LoRA)及对齐方案(如 DPO、PPO),用户可根据需求灵活选择策略。此外,它提供一站式服务,从微调到量化再到运行,无需在不同工具间切换。
在量化方面,LLaMA-Factory 能有效压缩模型规模,降低计算量和存储需求,使模型能在性能稍弱的设备上流畅运行。训练过程记录全面,除同步输出 loss 曲线外,还自带 BLEU 等评测指标,有助于监控和评估模型性能。
LLaMA-Factory 环境搭建
下载与解压
访问 GitHub 仓库 LLaMA-Factory 获取源码。建议直接下载 zip 包并解压,记录解压路径以便后续操作。
![LLaMA-Factory 下载界面]
Anaconda 环境配置
软硬件依赖
官方推荐 Python 版本至少 3.9,建议使用 3.10。打开终端后,导航至解压后的 LLaMA-Factory 目录。
# 示例:导航到具体文件夹
cd E:\Model\LLaMA-Factory-main\LLaMA-Factory-main
依赖安装
进入虚拟环境后,执行以下命令安装依赖:
pip install -r requirements.txt
pip install -e ".[torch,metrics]"
CUDA 与量化支持
安装 PyTorch 及 CUDA 支持(以 CUDA 11.8 为例):
conda install pytorch torchvision torchaudio pytorch-cuda=11.8 -c pytorch -c nvidia
若需在 Windows 平台开启量化 LoRA(QLoRA),需安装预编译的 bitsandbytes 库。请根据 CUDA 版本选择合适的 wheel 文件安装,例如:
pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.41.2.post2-py3-none-win_amd64.whl
启动 WebUI
运行以下命令启动可视化界面:
llamafactory-cli webui
若遇到 localhost 无法访问或 Gradio share 响应问题,可修改 interface.py 中的 share 参数为 True。注意启动时避免使用代理,以免界面加载异常。
数据集准备
数据导出工具
本教程以微信聊天记录风格化为例,可使用相关导出工具(如留痕)将聊天记录转换为文本格式。参考论文或官方文档了解个性化对话生成的最佳实践。
数据合并
在聊天记录文件夹中创建 merge.py,用于合并所有 JSON 格式的对话数据:
import os
import json
folder_path = r'D:\软件\留痕\data\聊天记录'
json_files = []
for root, dirs, files os.walk(folder_path):
file files:
file.endswith():
json_files.append(os.path.join(root, file))
merged_data = []
file json_files:
(file, , encoding=) f:
:
data = json.load(f)
merged_data.append(data)
json.JSONDecodeError:
()
merged_file_path = os.path.join(folder_path, )
(merged_file_path, , encoding=) merged_file:
json.dump(merged_data, merged_file, indent=, ensure_ascii=)
()


