【AI】基于 LLaMa-Factory 和 LoRA 算法的大模型微调

【AI】基于 LLaMa-Factory 和 LoRA 算法的大模型微调

目录

1.Windows

2.Linux

3.微调操作(待更新)


1.Windows

LLaMA-Factory 的 Github地址:https://github.com/hiyouga/LLaMA-Factory

克隆仓库(我的windows目录是D:\Program Files\LLaMa-Factory,linux可以直接在根目录克隆)

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

切换到项目目录

cd LLaMA-Factory

修改配置,将 conda 虚拟环境安装到数据盘

(如果你已经配置过则不用这步)

mkdir -p "D:\Program Files\conda\pkgs" conda config --add pkgs_dirs "D:\Program Files\conda\pkgs" mkdir -p "D:\Program Files\conda\envs" conda config --add envs_dirs "D:\Program Files\conda\envs"

或者直接去c盘修改配置(C:\Users\Administrator\.condarc)

按下win键,输入Anaconda Prompt,用管理员打开

(如果你已经将conda放到环境变量,就在当前目录操作即可)

创建 conda 虚拟环境(一定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容)

conda create -n llama-factory python=3.10

接受所有条款,然后重新执行上述操作

conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/main conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/msys2

激活环境

conda activate llama-factory

下载依赖

pip install -e ".[torch,metrics]"

从错误信息可以看出两个主要问题:

  1. SSL证书验证失败:无法通过HTTPS连接到PyPI下载setuptools
  2. pip版本过旧:您使用的是pip 20.3.1,而最新版本是25.0.1

报错的话就先激活环境,同时一定要初始化(当前目录或者是Anaconda Prompt)

conda init

重新下载依赖即可

如果还报错

改一下版本即可:

conda create -n llama-factory-py311 python=3.11 source ~/.bashrc

下载完成

检验是否安装成功

llamafactory-cli version

启动 LLama-Factory 的可视化微调界面 (由 Gradio 驱动)

llamafactory-cli webui

访问LLaMA Factory (QXC-20250903GVX)

这里我们需要新开一个终端(D:\Program Files\LLaMa-Factory输入cmd),记得要先激活llama-factory环境

创建文件夹统一存放所有基座模型

mkdir "D:\Program Files\hugging-face"

修改 HuggingFace 的镜像源

set HF_ENDPOINT=https://hf-mirror.com

修改模型下载的默认位置

set "HF_HOME=D:\Program Files\hugging-face"

这种配置方式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都生效,可以执行以下操作(但没必要)

setx HF_ENDPOINT "https://hf-mirror.com" setx "HF_HOME=D:\Program Files\hugging-ace" 

检查环境变量是否生效

echo %HF_ENDPOINT% echo %HF_HOME%

安装 HuggingFace 官方下载工具

pip install -U huggingface_hub

下载可能会报如下错误,这是因为 hugging-face 的版本太高了,安装低版本的就可以了

安装低版本,再次执行上述操作即可

pip install "huggingface_hub<1.0"

执行下载命令

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

下载之后就可以直接开始微调了

2.Linux

大部分操作跟windows一样

克隆仓库(我的windows目录是D:\Program Files\LLaMa-Factory,linux可以直接在根目录克隆)

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git

切换到项目目录

cd LLaMA-Factory

修改配置,将 conda 虚拟环境安装到数据盘

(如果你已经配置过则不用这步)

mkdir -p /root/autodl-tmp/conda/pkgs conda config --add pkgs_dirs /root/autodl-tmp/conda/pkgs mkdir -p /root/autodl-tmp/conda/envs conda config --add envs_dirs /root/autodl-tmp/conda/envs

以管理员方式打开Anacnoda Prompt (如果你已经将conda放到环境变量,就在当前目录操作即可)

创建 conda 虚拟环境(一定要 3.10 的 python 版本,不然和 LLaMA-Factory 不兼容,如果后面下载包报错的话就用3.11)

conda create -n llama-factory python=3.10

如有需要,接受所有条款,然后重新执行上述操作

conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/main conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/msys2

激活环境

conda activate llama-factory

下载依赖

pip install -e ".[torch,metrics]"

报错的话就先激活环境,同时一定要初始化(当前目录或者是Anaconda Prompt),重新执行上述命令

conda init

 检验是否安装成功

llamafactory-cli version

 启动 LLama-Factory 的可视化微调界面 (由 Gradio 驱动)

llamafactory-cli webui

访问LLaMA Factory (QXC-20250903GVX)

这里我们需要新开一个终端,记得要先激活llama-factory环境,同时要在~/autodl-tmp目录下

创建文件夹统一存放所有基座模型

mkdir hugging-face

修改 HuggingFace 的镜像源

export HF_ENDPOINT=https://hf-mirror.com

修改模型下载的默认位置

export HF_HOME=/root/autodl-tmp/Hugging-Face

这种配置方式只在当前 shell 会话中有效,如果你希望这个环境变量在每次启动终端时都生效,可以执行以下操作(但没必要)

echo 'export HF_ENDPOINT="https://hf-mirror.com"' >> ~/.bashrc echo 'export HF_HOME="/root/autodl-tmp/hugging-face"' >> ~/.bashrc # 重新加载配置 source ~/.bashrc

检查环境变量是否生效

echo $HF_ENDPOINT echo $HF_HOME

安装 HuggingFace 官方下载工具

pip install -U huggingface_hub

下载可能会报如下错误,这是因为 hugging-face 的版本太高了,安装低版本的就可以了

安装低版本,再次执行上述操作即可

pip install "huggingface_hub<1.0"

执行下载命令

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

下载之后就可以直接开始微调了

3.微调操作(待更新)

...

Read more

语音识别新篇章:Whisper模型从入门到实战完整指南

语音识别新篇章:Whisper模型从入门到实战完整指南 【免费下载链接】whisper-tiny.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-tiny.en 还在为语音识别技术的高门槛而烦恼吗?🤔 今天,让我们一起探索OpenAI Whisper这款革命性的语音识别工具,看看它是如何让语音转文字变得如此简单高效! 🎯 为什么选择Whisper? 想象一下,你正在参加一个重要的国际会议,需要实时记录多国代表的发言内容。传统方法可能需要多名翻译人员协同工作,而Whisper却能一个人搞定所有任务!💪 Whisper的核心优势: * 🚀 一键安装,快速上手 * 🌍 支持98种语言,真正全球化 * 🎵 智能降噪,适应各种环境 * 💰 完全免费开源,商业友好 📦 快速开始:环境搭建全攻略 准备工作 首先,确保你的系统满足以下基本要求: * Python 3.9或更高版本 * 至少8GB内存 * 支持CUDA的GPU(可选,但推荐) 安装步骤 让我们一步步搭建Whisp

开题报告撰写新思路:通过9款AI写作工具和模板修改技巧提高质量

开题报告撰写新思路:通过9款AI写作工具和模板修改技巧提高质量

工具对比速览 工具名称 核心功能 适用场景 效率评分 特色优势 AIBiYe 开题报告生成/降重 中文论文全流程 ★★★★★ 国内院校适配度高 AICheck 初稿生成/格式检查 快速产出框架 ★★★★☆ 结构化输出优秀 AskPaper 文献综述辅助 外文文献处理 ★★★★ 跨语言检索强 秒篇 模板化写作 紧急赶稿 ★★★★ 5分钟速成 AI论文及时雨 全流程辅助 长论文写作 ★★★★☆ 20万字长文支持 学术GPT 语言润色 英文论文优化 ★★★★ 学术用语专业 PubScholar 文献检索 中科院资源 ★★★★ 免费权威 Grammarly 语法检查 语言纠错 ★★★★ 实时修改建议 智谱清言 框架构建 跨学科论文 ★★★☆ 多轮交互设计 AI工具如何革新开题报告写作? Q:AI工具真的能帮我们写好开题报告吗? A:当前AI技术已深度融入学术研究全流程,能够实现文献综述框架的快速搭建、

3分钟搭建本地AI绘画平台:StableDiffusion-webui让创意秒变精美画作

3分钟搭建本地AI绘画平台:StableDiffusion-webui让创意秒变精美画作 【免费下载链接】ChatTTS-ui匹配ChatTTS的web界面和api接口 项目地址: https://gitcode.com/GitHub_Trending/ch/ChatTTS-ui 你是否还在为AI绘画需要付费API而烦恼?是否担心在线服务存在隐私泄露风险?本文将带你从零开始,通过StableDiffusion-webui在本地部署一套全功能AI绘画系统,无需美术功底,3分钟即可拥有媲美专业画师的创作能力。 读完本文你将获得: * 4种零代码部署方案(Windows一键安装/容器化部署/源码部署/移动端适配) * 6种常用绘画风格参数配置与自定义方法 * API接口调用全流程及Python示例代码 * 95%常见问题的解决方案 项目核心架构 StableDiffusion-webui是一个基于Stable Diffusion模型的Web界面和API接口项目,主要由前端交互层、图像生成层和模型管理层构成。项目采用模块化设计,核心代码集中在以下目录: * Web界面

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

COT思维链 * 引言 * 理解实践 * 存疑例子 * COT解决 * 内置COT * COT的优势 * COT的未来展望: * 结语 引言 在人工智能领域,我们一直在追求让机器像人类一样思考。然而,即使是最先进的AI,也常常被诟病缺乏“常识”,难以理解复杂问题,更不用说像人类一样进行逻辑推理和解决问题了。最经常的表现就是遇到不会的地方,或者一些人一眼能看出来的地方AI在那里胡扯。 为了解决这个问题,一种名为“思维链(Chain of Thought, COT)”的技术应运而生。COT的核心思想是:将复杂问题分解成一系列简单的子问题,并逐步推理出最终答案。 这就像人类在解决问题时,会先将问题拆解成一个个小步骤,然后一步步推理,最终得出结论。 理解实践 存疑例子 为了理解COT我们先来看个例子。经典的数strawberry里面的r有几个 from langchain_openai import ChatOpenAI from langchain.chains import LLMChain from