LLaMA-Factory安装教程(详细版)

LLaMA-Factory安装教程(详细版)

本机显卡双3090

使用wsl中ubuntu

torch==2.6.0

conda==24.5.0

cuda==12.4

python==3.12.4(python安装不做赘述,有需要我会另开一篇文章)

一、准备工作

首先,在 https://developer.nvidia.com/cuda-gpus 查看您的 GPU 是否支持CUDA。

保证当前 Linux 版本支持CUDA. 在命令行中输入 

 uname -m && cat /etc/*release

输出如下,不一定完全一样,类似即可

检查是否安装了 gcc . 在命令行中输入 gcc --version ,应当看到类似的输出

二、pytorch和cuda安装

使用官网版本2.6.0   官网链接:Previous PyTorch Versions   箭头一栏可以看到历史版本

根据其指令安装对应版本

# ROCM 6.1 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.1 # ROCM 6.2.4 (Linux only) pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/rocm6.2.4 # CUDA 11.8 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu118 # CUDA 12.4 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124 # CUDA 12.6 pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu126 # CPU only pip install torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cpu

三、校检torch和cuda版本

安装完查看自己的torch版本

conda list

cuda版本则需要进入python

import torch print(torch.version.cuda)

四、LLaMA-Factory 安装

运行以下指令以安装 LLaMA-Factory 及其依赖:

git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e ".[torch,metrics]"

五、LLaMA-Factory 校验

完成安装后,可以通过使用以下命令。

llamafactory-cli version

如果您能成功看到类似下面的界面,就说明安装成功了。

六、LLaMA-Factory 网页版

LLaMA-Factory 支持通过 WebUI 零代码微调大语言模型。 在完成 安装 后,通过以下指令进入 WebUI:

llamafactory-cli webui

其中 http://127.0.0.1:7860就是你的可视化网址。

注:该网址只限于本机使用,如需联网多人服务器使用则需使用内网穿透。

ps.需要更详细的LLaMA-Factory参数详解,请点击关注催更留言,觉得内容不错留个赞再走吧,您的认可就是我更新的动力。

Read more

Flutter 组件 serverpod_swagger 的鸿蒙化适配实战 - 自动化生成后端映射、Swagger UI 桥接与 API 交互效率提升方案

Flutter 组件 serverpod_swagger 的鸿蒙化适配实战 - 自动化生成后端映射、Swagger UI 桥接与 API 交互效率提升方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 serverpod_swagger 的鸿蒙化适配实战 - 自动化生成后端映射、Swagger UI 桥接与 API 交互效率提升方案 前言 在现代的全栈 Flutter 开发架构中,Serverpod 以其“代码即协议”的理念,打破了前后端通信的繁冗壁垒。然而,当后端模型不断膨胀,如何让前端(尤其是正在飞速扩张的鸿蒙端)开发者能够直观地查看、调试并自动生成对应的 API 调用代码? serverpod_swagger 应运而生。它是 Serverpod 生态中负责生成符合 OpenAPI 标准(Swagger)协议的核心模块,能够将复杂的后端 Model 和 Endpoint 瞬间转化为标准的 Swagger

By Ne0inhk
Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案

Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案 前言 在鸿蒙(OpenHarmony)生态的多媒体应用开发中,除了当红的 HLS 和 Dash 协议外,一个被广泛应用在网络电台、复古音乐分享以及专业播音系统中的经典协议——PLS(Playlist File)格式,依然占据着不可忽视的地位。 PLS 之于音频流,如同 Map 之于数据结构:结构简单、解析高效。但如何在鸿蒙端将其不仅解析出来,还能无缝对接到鸿蒙系统的音频焦点、媒体控制中心以及分布式音频分发体系中? pls 库是一套专为该协议设计的轻量化解析引擎。它能将看似杂乱的文本配置文件瞬间转为结构化的音频流列表。适配到鸿蒙平台后,它不仅能支撑起一个功能纯粹的网络收音机,更是我们构建“鸿蒙全场景影音同步”中流地址分发的关键一环。

By Ne0inhk
HarmonyOS 5.0 PC应用开发实战:构建跨设备协同的桌面生产力工具

HarmonyOS 5.0 PC应用开发实战:构建跨设备协同的桌面生产力工具

文章目录 * 每日一句正能量 * 前言 * 一、HarmonyOS PC应用开发背景与机遇 * 1.1 生态发展现状 * 1.2 技术架构特点 * 二、实战项目:跨设备Markdown编辑器 * 2.1 项目需求分析 * 2.2 技术选型 * 三、核心代码实现 * 3.1 工程架构搭建 * 3.2 PC端响应式布局 * 3.3 分布式数据同步实现 * 3.4 PC端多窗口管理 * 3.5 键盘快捷键系统 * 四、跨设备协同场景实战 * 4.1 手机拍照插入PC文档 * 4.2 平板手绘同步到PC * 五、性能优化与最佳实践 * 5.1

By Ne0inhk