一、LLaMA Factory 安装
# 通过 git 下载项目
git clone https://github.com/hiyouga/LLaMA-Factory.git
# 进入目录
cd LLaMA-Factory
# 安装
pip install -e ".[torch,metrics]"
遇到问题:ERROR: Package 'llamafactory' requires a different Python: 3.9.6 not in '>=3.11.0'。建议升级 Python 至稳定版本(如 3.12),不建议盲目选择最新测试版。
问题 2:externally-managed-environment 错误。
解决方案:使用虚拟环境。
# 安装 anaconda
brew install --cask anaconda
# 创建虚拟环境
conda create -n llama python=3.12
# 激活该环境
conda activate llama
再次执行 pip install -e ".[torch,metrics]"。成功安装后在目录执行 llamafactory-cli webui,访问 http://localhost:7860/ 说明安装成功。

二、模型下载与验证
在 ModelScope 选择一个较小的模型,例如 DeepSeek-R1-Distill-Qwen-1.5B,可通过 Git 方式下载。
# 因为存在大文件下载,需要安装 git-lfs
git lfs install
# 下载模型
git clone https://www.modelscope.cn/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.git
下载完成后可通过页面配置模型名称、路径,然后在 Chat 中加载模型进行测试。
初次加载可能抛出异常,提示 SafetensorError: Error while deserializing header: header too large。原因是 Git 下载大文件不全,请检查 model.safetensors 文件大小是否与下载页面一致。可手动下载后移动到文件夹。

加载成功后可以通过聊天测试。







