LLaMA Factory 安装与配置指南
llama-factory 是一个零代码大模型训练平台,可以快速搭建模型训练环境,并提供丰富的模型训练功能。
1. 获取项目代码
可以选择前往 GitHub 下载 llama-factory 项目的压缩包,或使用命令行直接克隆仓库:
git clone https://github.com/hiyouga/LLaMA-Factory.git
2. 依赖安装与环境校验
使用框架自带的 requirements.txt 去下载安装相关依赖,完全匹配当前分支的依赖版本,避免手动指定版本出错。
2.1 核心依赖安装
执行 llamafactory 核心依赖时,必须在 llamafactory 的根目录下执行(即包含 setup.py 或 pyproject.toml 的文件夹内),否则 pip 找不到安装配置文件会报错。
# 在 LLaMA-Factory 根目录下执行
pip install -e ".[torch,metrics]"
注意: pip install torch 是安装公共库,而 pip install -e ".[torch,metrics]" 是安装当前目录下的本地项目,两者逻辑不同。若不加 --no-deps,pip 会优先装最新版依赖(可能导致 transformers 升级到不兼容版本);加 --no-deps 则跳过所有依赖的安装/升级,只关联 LlamaFactory。
2.2 安装校验
安装好后可以执行以下命令快速校验安装是否成功:
llamafactory-cli version
若显示版本号,则安装成功。随后执行运行 webui.py 的代码即可启动界面。
3. 模型选择逻辑
当你选择大模型时可以发现有很多版本,这些模型名称中的后缀(Chat/Math/Base)代表不同的模型定位和用途。针对'微调大模型'的需求,通常选择带有 Chat 后缀的版本。
4. 常见问题排查
4.1 路径错误
问题不是路径本身的问题,而是你执行 pip install -e ".[torch,metrics]" 时,当前目录不是 LlamaFactory 的代码根目录。例如完整路径应为 D:\software\liulanqi\weitiao\llamafactory\warehouse\LLaMA-Factory,进入该文件夹能看到 setup.py、webui.py、requirements.txt 等文件即为正确目录。
4.2 Windows 编译环境缺失
安装 numpy 时可能触发编译环境缺失错误,原因是 Windows 系统缺少 C/C++ 编译器(如 Visual Studio 的编译工具),导致 numpy 无法从源码编译安装。需安装相应编译工具后再重试。
4.3 依赖版本冲突
安装 bitsandbytes 时,pip 可能会自动把 torch 版本升级,但原来的 torchaudio 和 torchvision 是依赖旧版 的,新版本不兼容。
此外, 库版本可能与 版本不兼容。这是因为执行 时,pip 会自动下载/安装 LlamaFactory 声明的依赖, 就是其中之一。

