LLaMA-Factory部署以及微调大模型

一、安装LLaMa-Factory

1.python环境安装

安装成功后,输入python能出现截图表示安装成功

2.CUDA和PyTorch安装

2.1 PyTorch安装

查看PyTorch与CUDA对应的版本,然后进行安装。PyTorch的管网地址:PyTorch

把网页往下拖能看到PyTorch和CUDA对应的版本。

我这里将要选择的CUDA版本是11.8。我自己试过CUDA12.6的版本,不知道为什么没有跑通,后面就直接把CUDA的版本选成11.8了。

在终端中输入截图中的指令:

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

就会安装PyTorch,不翻墙的情况下安装比较慢,建议有条件的可以翻墙安装。因为我已经安装成功了,再来编写的该文章,结果如截图所示。

到此PyTorch安装结束。

2.2 CUDA安装

找到CUDA的历史版本。链接地址:CUDA Toolkit Archive | NVIDIA Developer

找到我们目标的安装包,下载安装。安装成功后在终端中输入:nvcc --version

如截图所示,cuda安装成功。

2.3 校验

校验下cuda和pytorch是否匹配成功

终端中输入:python

继续输入:import torch

继续输入:torch.cuda.current_device()

继续输入:torch.cuda.get_device_name(0)

继续输入:torch.__version__

如果出现什么异常错误,可能是环境没有处理好,还需自行检查。笔者前面遇到过下载cuda版本12.6以及对应的Tytorch,就遇到没有成功的状况,遂改用cuda版本为11.8

3. 下载LLaMa-Factory的git仓库

git clone https://github.com/hiyouga/LLaMA-Factory.git

下载完成后的截图:

在终端中进入刚下载好的LLaMa-Factory文件夹中

必须在该文件夹内输入指令:pip install -e '.[torch,metrics]'

安装一些必须的东西。安装结束后如截图所示。

验证安装是否成功。输入指令:llamafactory-cli version

如出现截图所示表示安装成功

二、下载模型

在魔塔社区中可以自行找个模型进行下载。笔者这里选这一个Qwen2.5-0.5B-Instruct模型进行下载。链接地址:魔搭社区

点击模型文件

选择下载模型

选择git下载。该模型的git下载url:git clone https://www.modelscope.cn/Qwen/Qwen2.5-0.5B-Instruct.git

下载完成后

三、部署大模型

启动llama-factory的webui,输入指令:llamafactory-cli webui

注意下:必须是在LLMa-Factory仓库中输入该指令。

启动后的界面

切换页面到能部署模型的页面

点击chat

模型名称从下拉列表中选择Qwen2.5-0.5B-Instruct

模型路径填写,刚刚下载好的模型。注意:模型名称和模型路径中的模型要是对应的。

填写好,进行加载模型。

加载成功后,就可以进行聊天了。

四、模型微调

4.1 生成训练的数据集

代码:

import json import random from faker import Faker def generate_thermal_dataset(output_path="thermal_dataset.json"): """生成智能家居温度调控指令数据集""" fake = Faker('zh_CN') # 定义数据生成模板组件‌:ml-citation{ref="1" data="citationList"} base_phrases = ["有点", "非常", "特别", "实在", "真的", "确实", "越来越", "稍微", "极其"] heat_verbs = ["热","炎热","火热","酷热","炽热","闷热","灼热","滚烫","炙热","沸热","炙烤","加热","升温","燥热","湿热","高温","暖热"] quantifiers = ["了", "啦", "啊", "呢", ""] dataset = [] for _ in range(2000): # 构造自然语言输入‌:ml-citation{ref="4" data="citationList"} phrase = random.choice(base_phrases) verb = random.choice(heat_verbs) quantifier = random.choice(quantifiers) input_text = f"我{phrase}{verb}{quantifier}" # 生成带逻辑的JSON输出‌:ml-citation{ref="3,5" data="citationList"} output_json = { "Device": "AirConditioner", "Status": "on" } # 构建完整数据项‌:ml-citation{ref="1,6" data="citationList"} dataset.append({ "instruction": "你是一个物联网数据处理专家,需要把自然语言指令转换为JSON结构化数据", "input": input_text, "output": json.dumps(output_json, ensure_ascii=False), }) # 保存数据集‌:ml-citation{ref="2" data="citationList"} with open(output_path, "w", encoding="utf-8") as f: json.dump(dataset, f, indent=2, ensure_ascii=False) print(f"数据集已生成:{output_path}") if __name__ == "__main__": generate_thermal_dataset() 

该代码会生成2000条训练数据。

运行代码的结果:

4.2 配置训练参数

找到llama-factory中的训练参数集的配置文件

data文件夹中的dataset_info文件。打开文件并配置。

我们在json字符串中再加入一组

配置完成后,我们在data文件夹中再新建一个train.json文件,用于保存生成出来的训练数据集。

在webui中配置上刚刚添加好的数据训练集

预览数据集

确定数据集后。进入设备管理器,禁用集成显卡,使用独立显卡进行训练

webui中点击,开始训练

可以看到已经开始训练

训练完成

看到log上面出现训练完毕,表示训练结束了。

4.3 合并导出

选择export

然后把这三个地方配置正确

点击开始导出就能合并导出微调好的模型了

4.4 加载合并后的模型

Read more

【提升开发效率300%】:VSCode AI Copilot自定义指令配置秘籍

第一章:VSCode AI Copilot自定义指令概述 Visual Studio Code(VSCode)中的 GitHub Copilot 不仅能自动补全代码,还支持通过自定义指令增强开发效率。这些指令允许开发者根据项目需求或团队规范,定义 AI 行为的上下文和输出风格,从而让生成的代码更贴合实际应用场景。 自定义指令的作用 * 控制代码生成的风格,例如使用函数式还是面向对象编程 * 指定默认导入的库或框架,减少重复编写样板代码 * 遵循团队命名规范或注释标准 * 在特定项目中启用领域相关的提示词(prompts) 配置自定义指令的方法 在 VSCode 中,可通过设置文件添加 Copilot 自定义指令。打开项目根目录下的 .vscode/settings.json 文件,并添加如下配置: { // 设置 AI 生成代码时使用的默认语言风格 "github.copilot.advanced": { "promptPrefix"

Copilot权限设置全攻略:从入门到合规的7步落地路径

第一章:Copilot权限设置的基本概念 GitHub Copilot 是一款基于人工智能的代码补全工具,能够根据上下文自动建议代码片段。为了确保安全与协作效率,合理配置其权限至关重要。权限设置不仅影响开发者获取建议的能力,还关系到组织内代码的安全性与合规性。 权限模型概述 Copilot 的权限控制主要围绕用户身份、组织策略和资源访问三个维度展开。在企业环境中,管理员可通过 GitHub 组织设置统一管理 Copilot 的启用状态与访问范围。 * 成员角色决定是否能使用 Copilot 建议 * 组织策略可限制特定仓库禁用 Copilot * 私有代码内容不会被用于训练模型,保障数据隐私 基本配置步骤 管理员需登录 GitHub 并进入组织设置页面进行配置: 1. 访问“Settings” > “Billing and plans” > “GitHub Copilot” 2. 选择“Manage organizations”并为指定组织启用服务 3. 设定成员许可分配方式:自动分配或手动审批 API

AI绘图的硬件密码:如何为Stable Diffusion选择与优化你的电脑配置

AI绘图的硬件密码:如何为Stable Diffusion选择与优化你的电脑配置 当第一次看到AI生成的画作时,很多人都会被其惊人的创造力和表现力所震撼。从细腻的肖像到奇幻的场景,AI绘图正在重塑创意产业的边界。而Stable Diffusion作为当前最受欢迎的开源AI绘图工具,让每个人都能在本地电脑上体验这股创作浪潮。但不同于在线服务,本地运行Stable Diffusion对硬件有着特定要求,不当的配置可能导致生成速度缓慢甚至无法运行。本文将深入解析硬件选择与优化的核心要点,帮助你在预算范围内搭建最适合AI绘图的工作站。 1. 显卡:AI绘图的核心引擎 显卡是影响Stable Diffusion性能的最关键组件,其选择直接决定了生成图像的速度和质量。与游戏或3D渲染不同,AI绘图对显卡有着独特的需求模式。 显存容量是首要考量因素。Stable Diffusion在生成512x512像素图像时,基础模型通常需要至少4GB显存。而若想处理更高分辨率(如768x768或1024x1024)或使用更复杂的大模型,8GB以上显存将成为必要条件。实测数据显示: 显存容量支持分

5个超实用nano banana提示词网站!7000条灵感任你选,秒变AI绘画大神!

5个超实用nano banana提示词网站!7000条灵感任你选,秒变AI绘画大神!

最近刷社交媒体,到处都是nano banana生成的惊艳图片,朋友圈都快被刷屏了! 抱着"吃瓜"的心态试了一下, 结果直接被谷歌的nano banana狠狠震撼到了!😱 不多说,直接上干货——精心整理了近7000条提示词玩法大全,保证让你从小白秒变大神! 资源名称收录提示词数量推荐原因资源链接youwind5676提示词多https://youmind.com/zh-CN/nano-banana-pro-promptsaiwind1000+提示词多https://aiwind.org/Awesome-Nano-Banana-images1102万颗星推荐https://github.com/PicoTrex/Awesome-Nano-Banana-imagesawesome-nano-banana1008千多颗星推荐https://github.com/JimmyLv/awesome-nano-bananaawesome-nanobanana-pro69分类全,案例实用https://github.com/ZeroLu/awesome-nanobanana-pro