LLaMA-Factory 详细安装与部署指南
环境背景:WSL Ubuntu 系统,双 RTX 3090 显卡,CUDA 12.4。
一、环境准备
开始前,先确认硬件与基础工具链是否就绪。
1. 确认 GPU 支持
访问 NVIDIA 官网查看您的 GPU 是否支持 CUDA。确保当前 Linux 发行版兼容 CUDA 驱动。在终端执行以下命令检查系统架构与版本:
uname -m && cat /etc/*release
输出结果应显示类似信息,具体版本号不必完全一致。

2. 检查编译工具
LLaMA-Factory 依赖 gcc 进行部分组件编译。输入 gcc --version 确认已安装,看到版本号即表示环境正常。

二、安装 PyTorch 与 CUDA
根据官方文档选择对应版本的 PyTorch。本示例基于 CUDA 12.4 环境,推荐使用以下命令安装 torch 2.6.0 及相关库:


若使用其他 CUDA 版本(如 11.8 或 CPU 模式),请调整 --index-url 参数中的后缀。注意:Python 环境建议提前配置好 conda 虚拟环境。
# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1
# ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4
# CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118
# CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124





