LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

多模态动态融合模型Predictive Dynamic Fusion阅读与代码分析运行1-信度概念与基础参数指标

多模态动态融合模型Predictive Dynamic Fusion阅读与代码分析运行1-信度概念与基础参数指标

参考文:Cao B, Xia Y, Ding Y, et al. Predictive Dynamic Fusion[J]. arXiv preprint arXiv:2406.04802, 2024.[2406.04802] Predictive Dynamic Fusion 一、理论 今天就先看看论文中的各个指标含义和多模态训练代码的参数吧 文章中一个比较重要的概念就是置信度的概念了,在论文前段,对置信度的扩展比较多同时没有什么具体说明,不知道概念的话读着还是很混乱的; 置信度 在机器学习中,置信度表示模型对其预测结果“有多确定”。 它刻画的是:模型认为自己预测是正确的程度 例如,在分类任务中:“这是正类的概率是 0.92”,那么 0.92 就可以视为模型对该预测的置信度 在监督学习中,给定输入样本 xxx,模型预测类别为

传统VS 8MAV:无人机巡检效率对比实验

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 输入框内输入如下内容: 开发一个电力线路巡检效率对比工具,功能包括:1. 模拟单无人机巡检过程 2. 模拟8MAV集群巡检 3. 自动计算两种模式的时间成本 4. 生成效率对比图表 5. 支持自定义巡检区域设置。要求使用Python,包含OpenCV图像处理库,输出详细的效率分析报告。 1. 点击'项目生成'按钮,等待项目生成完整后预览效果 传统VS 8MAV:无人机巡检效率对比实验 最近在做一个电力线路巡检的项目,发现传统单无人机巡检效率确实存在瓶颈。为了验证8MAV集群系统的优势,我开发了一个效率对比工具,记录下整个过程和发现。 项目背景与需求分析 电力线路巡检是个耗时耗力的工作。传统方式需要巡检员带着单台无人机,一段段线路慢慢飞,不仅效率低,遇到复杂地形还容易漏检。8MAV集群系统理论上可以多机协同作业,但具体能提升多少效率,

【AI绘画】DALL·E 3 绘图功能与 DALL·E API 探索

【AI绘画】DALL·E 3 绘图功能与 DALL·E API 探索

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AI绘画 文章目录 * 💯前言 * 💯DALL·E 3 图像生成介绍 * 图像质量与分辨率 * 图像生成机制的解析 * 多图生成功能 * 💯使用 DALL·E 编辑器界面 * 实际应用 * 编辑器的实用建议 * 💯DALL·E API 的探索 * 获取API Key的基本步骤 * API 功能概览 * 实际应用场景 * 使用注意事项 * 最佳实践 * 💯小结 💯前言 DALL·E 3 是 OpenAI 最新的图像生成技术,通过对文本描述的深度理解和生成对抗网络(GANs)的应用,能够快速生成高质量、细节丰富的图像。本文将从图像生成机制、分辨率与格式选择、多图生成功能、编辑器界面操作及 API 的使用等多个方面,

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决) 在 AI Agent 和自动化工具越来越普及的今天,越来越多开发者希望拥有一个 能够自动处理任务、接入团队协作工具的 AI 助手。 最近OpenClaw火的一塌糊涂,我也跟风研究了一下这个开源项目。它可以理解为一个 可扩展的 AI Agent 框架,支持接入各种工具、自动执行任务,并且可以和企业协作平台(如飞书)打通,实现 AI 自动回复、自动化工作流。 本文将带大家 从 0 开始,在 MacOS 上安装 OpenClaw,并接入飞书机器人。 同时我也整理了自己在安装过程中遇到的 终端报错问题与完整解决方案,让你一次性避坑。 本文包含: * MacOS 安装 OpenClaw * 接入飞书机器人 * 配置开机自启 * 终端报错解决(