50系显卡训练深度学习YOLO等算法报错的解决方法

50系显卡训练深度学习YOLO等算法报错的解决方法

1 前言

YOLO训练时报错

NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.  
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90.
IF you want to use the NVIDIA GeForce RTX 5090 D GPU with PyTorch, please check the instructions at ...    如下图中内容

本文将针对50系使用的NVIDIA的sm_120,也就是Blackwell架构在常用的深度学习环境配置中无法正常训练导致的问题进行一些解决,简单的方式就是使用CUDA12.8及Pytorch2.7.0版本。本文将对于下面几个我的教程中出现的50系(如5060、5070、5080、5090等)无法训练进行统一的解决,确保可以正常训练。

超详细目标检测:YOLOv11(ultralytics)训练自己的数据集,新手小白也能学会训练模型,手把手教学一看就会-ZEEKLOG博客

目标检测:YOLOv12训练自己的数据集,手把手教学一看就会-ZEEKLOG博客

YOLOv13教程:YOLOv13训练模型,超详细适合0基础小白快速上手-ZEEKLOG博客

对于其他的深度学习算法也可以尝试

2 报错自查

如果不确定自己是否存在这个问题,可以运行下面的代码查看是否有上面的报错

# 作者:ZEEKLOG-笑脸惹桃花 https://xiaolian.blog.ZEEKLOG.net/ import sys import platform import importlib.metadata from typing import Optional def check_module_version(module_name: str) -> Optional[str]: try: return importlib.metadata.version(module_name) except importlib.metadata.PackageNotFoundError: return None def check_environment(): # 系统信息 print("=" * 50) print("System and Environment Information") print("=" * 50) print(f"Operating System: {platform.system()}") print(f"Python Version: {sys.version}") print(f"Python Executable: {sys.executable}") print("\nPython Sys Path:") for path in sys.path: print(f" {path}") # 分隔线 print("\n" + "=" * 50) print("Deep Learning Libraries") print("=" * 50) # 检查 PyTorch try: import torch print(f"PyTorch Version: {torch.__version__}") print(f"PyTorch CUDA Version: {torch.version.cuda}") print(f"PyTorch CUDA Available: {torch.cuda.is_available()}") if torch.cuda.is_available(): print(f"CUDA Device Count: {torch.cuda.device_count()}") for i in range(torch.cuda.device_count()): print(f" GPU {i}: {torch.cuda.get_device_name(i)}") else: print("No CUDA-capable GPU detected.") except ImportError: print("PyTorch not installed.") # 检查其他常用库 print("\nOther Dependencies:") libraries = ["numpy", "opencv-python", "pillow", "matplotlib", "scipy"] for lib in libraries: version = check_module_version(lib) print(f"{lib}: {version if version else 'Not installed'}") if __name__ == "__main__": check_environment()

3 CUDA卸载并升级

首先如果跟着其他教程安装的CUDA版本低于12.8的,都需要下载CUDA12.8版本,这里我给出下载链接

CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive在这个网站挑选下载或者直接点击夸克网盘下载或者点此下载

对于CUDA版本低于12.8的,50系以上显卡建议卸载,可以参考下面的链接卸载

升级NVIDIA显卡驱动及卸载CUDA_cuda升级-ZEEKLOG博客

卸载完成后即可安装CUDA12.8,安装选项里选择自定义就可以

安装好后如下图

打开cmd,输入 nvcc -V 之后出现下面的内容即正常

安装完CUDA之后,可以选择是否安装cuDNN,需要安装的话在我其他的教程里都有提到,这里只给个CUDA12.8对应的cuDNN版本网盘下载链接 夸克网盘分享

4 conda虚拟环境更新

4.1 删除老环境

之后如果有之前安装的深度学习环境,需要先删除之前装好的环境,使用下面的命令 conda remove -n 环境名 --all

这里我用之前发的YOLOv13环境配置教程做演示,其他算法原理类似

conda remove -n yolov13 --all

需要连着输入两次y,确保环境删除干净

4.2 新建新环境

之后重新创建环境,跟之前的创建环境命令一样

conda create -n yolov13 python=3.11

4.3 安装torch

创建完成之后,首先安装torch,选择版本为2.7.0安装

pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128

torch库较大,耐心等待

4.4 安装其它所需库

安装完成之后根据教程中的继续安装其它所需库,比如YOLOv13需要安装requirements.txt中所有库,先将下面的内容复制到requirements.txt文件中保存,这一步非常重要,很多错误是因为这里没有替换

#torch==2.2.2 #torchvision==0.17.2 #flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl timm==1.0.14 albumentations==2.0.4 onnx==1.14.0 onnxruntime==1.15.1 pycocotools==2.0.7 PyYAML==6.0.1 scipy==1.13.0 onnxslim==0.1.31 onnxruntime-gpu==1.18.0 gradio==4.44.1 opencv-python==4.9.0.80 psutil==5.9.8 py-cpuinfo==9.0.0 huggingface-hub==0.23.2 safetensors==0.4.3 numpy==1.26.4 supervision==0.22.0 thop

首先cd到YOLOv13的路径下,输入下面的命令

pip install -r requirements.txt

不知道相对路径和绝对路径的可以看下面的教程,这个之前也发过

电脑小白科普——命令行中的相对路径与绝对路径_windows绝对路径和相对路径-ZEEKLOG博客

全部安装完成后,如下图所示

4.5 安装flash-attention

YOLOv13还需要安装flash-attention,需要根据CUDA版本和torch版本以及python版本选择合适的flash-attention版本,下载网站如下

Linux:Releases · Dao-AILab/flash-attention · GitHub

如果有能力可以自己编译,否则可以使用下面lldacing编译的FlashAttention库进行训练,精度会比其他人编译的正常很多

Windows:https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main

下载红框里的版本即可,也可以点击网盘下载 夸克网盘分享

之后仍然是使用相对路径安装,输入如下命令

pip install flash_attn-2.7.4.post1+cu128torch2.7.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

5 训练模型

安装完成就可以训练模型,需要先将pycharm或者其他开发软件的环境删除原有的并添加新的,选择好后仍然使用原本的训练代码就可以

import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': model = YOLO('ultralytics/cfg/models/v13/yolov13n.yaml') model.load('yolov13n.pt') #注释则不加载 results = model.train( data='data.yaml', #数据集配置文件的路径 epochs=200, #训练轮次总数 batch=16, #批量大小,即单次输入多少图片训练 imgsz=640, #训练图像尺寸 workers=8, #加载数据的工作线程数 device= 0, #指定训练的计算设备,无nvidia显卡则改为 'cpu' optimizer='SGD', #训练使用优化器,可选 auto,SGD,Adam,AdamW 等 amp= False, #True 或者 False, 解释为:自动混合精度(AMP) 训练 cache=False # True 在内存中缓存数据集图像,服务器推荐开启 )

数据集加载完成后运行训练就可以

6 训练结果

训练完成后如下图所示,使用yolov13n训练数据集,精度正常

看了文章之后50系显卡还是无法训练模型或者精度异常可以关注微信公众号-笑脸惹桃花 快速联系我解决

有写论文的大佬可以引用一下我的YOLOv11文章,十分感谢

Zhang Y, Liu J, Li S, et al. ESM-YOLOv11: A lightweight deep learning framework for real-time peanut leaf spot disease detection and precision severity quantification in field conditions[J]. Computers and Electronics in Agriculture, 2025, 238: 110801.

Read more

Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系

Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 flutter_adaptive_scaffold 的鸿蒙化适配指南 - 掌握一套代码适配全场景终端的自适应架构技术、助力鸿蒙应用构建从手机到平板及折叠屏的极致无缝交互体系 前言 在 OpenHarmony 鸿蒙应用追求“万物互联、全场景覆盖”的伟大进程中,屏幕尺寸的多样性(从 6 英寸手机到 12 英寸平板,再到 2D/3D 模式切换的折叠屏)是每一位 UI 开发者必须正面迎接的挑战。如何在不为每种设备重写 UI 的前提下,实现导航栏自动从“底部”平滑流转到“侧边”?如何在宽屏模式下自动开启“双栏(Master-Detail)”布局?flutter_adaptive_scaffold 作为一个由 Flutter

By Ne0inhk
在 macOS 上通过 Docker 本地安装 OpenClaw 完整教程

在 macOS 上通过 Docker 本地安装 OpenClaw 完整教程

在 macOS 上通过 Docker 本地安装 OpenClaw 完整教程 什么是 OpenClaw?—— 你的本地 AI 智能体执行框架 OpenClaw 不仅仅是一个聊天机器人,而是一个功能强大的 AI 智能体执行框架。你可以把它想象成一个能自主思考、调用工具、并替你完成复杂任务的数字员工。 🧠 核心概念 * 智能体:OpenClaw 的核心大脑。它能理解你的自然语言指令,拆解任务,并决定调用哪些工具来执行。 * 网关:所有外部访问的入口。它负责处理 WebSocket 连接、管理设备配对、路由消息,是你与智能体交互的桥梁。 * 技能:智能体可调用的具体工具,比如访问文件、操作浏览器、发送消息、查询数据库等。你可以根据需要扩展技能库。 * 记忆:OpenClaw 可以存储对话历史和重要信息,实现长期记忆和上下文理解,让交互更连贯。 * 通道:连接外部聊天平台的渠道,如

By Ne0inhk
HarmonyOS6半年磨一剑 - RcIcon组件实战案例集与应用开发指南

HarmonyOS6半年磨一剑 - RcIcon组件实战案例集与应用开发指南

文章目录 * 前言 * 项目简介 * 核心特性 * 开源计划 * rchoui官网 * 文档概述 * 第一章: 基础用法实战 * 1.1 三种符号引用方式 * 1.2 应用场景 - 工具栏快速导航 * 第二章: 尺寸系统实战 * 2.1 响应式尺寸配置 * 2.2 应用场景 - 统一设计系统尺寸规范 * 第三章: 颜色系统实战 * 3.1 多彩色系配置 * 3.2 应用场景 - 状态指示系统 * 第四章: 双风格系统实战 * 4.1 线型与实底风格对比 * 4.2 应用场景 - 底部导航栏 * 第五章: 圆角系统实战 * 5.

By Ne0inhk
Flutter 组件 short_uuids 适配鸿蒙 HarmonyOS 实战:唯一标识微缩技术,构建高性能短 ID 生成与分布式索引架构

Flutter 组件 short_uuids 适配鸿蒙 HarmonyOS 实战:唯一标识微缩技术,构建高性能短 ID 生成与分布式索引架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 short_uuids 适配鸿蒙 HarmonyOS 实战:唯一标识微缩技术,构建高性能短 ID 生成与分布式索引架构 前言 在鸿蒙(OpenHarmony)生态迈向万物互联、涉及海量离线资源标识、蓝牙广播载荷(BLE Payload)及二维码数据极限压缩的背景下,如何生成既能保留 UUID 强随机性、又能极大缩减字符长度的唯一标识符,已成为优化存储与通讯效率的“空间必修课”。在鸿蒙设备这类强调分布式软总线传输与每一字节功耗敏感的环境下,如果应用依然直接传输长度达 36 字符的标准 UUID,由于由于有效载荷溢出,极易由于由于传输协议限制导致数据截断或多次分包带来的延迟。 我们需要一种能够实现高进制转换、支持双向编解码且具备低碰撞概率的短 ID 生成方案。 short_uuids 为 Flutter 开发者引入了将标准 UUID 转化为短格式字符串的高性能算法。它利用

By Ne0inhk