50系显卡训练深度学习YOLO等算法报错的解决方法

50系显卡训练深度学习YOLO等算法报错的解决方法

1 前言

YOLO训练时报错

NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.  
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90.
IF you want to use the NVIDIA GeForce RTX 5090 D GPU with PyTorch, please check the instructions at ...    如下图中内容

本文将针对50系使用的NVIDIA的sm_120,也就是Blackwell架构在常用的深度学习环境配置中无法正常训练导致的问题进行一些解决,简单的方式就是使用CUDA12.8及Pytorch2.7.0版本。本文将对于下面几个我的教程中出现的50系(如5060、5070、5080、5090等)无法训练进行统一的解决,确保可以正常训练。

超详细目标检测:YOLOv11(ultralytics)训练自己的数据集,新手小白也能学会训练模型,手把手教学一看就会-ZEEKLOG博客

目标检测:YOLOv12训练自己的数据集,手把手教学一看就会-ZEEKLOG博客

YOLOv13教程:YOLOv13训练模型,超详细适合0基础小白快速上手-ZEEKLOG博客

对于其他的深度学习算法也可以尝试

2 报错自查

如果不确定自己是否存在这个问题,可以运行下面的代码查看是否有上面的报错

# 作者:ZEEKLOG-笑脸惹桃花 https://xiaolian.blog.ZEEKLOG.net/ import sys import platform import importlib.metadata from typing import Optional def check_module_version(module_name: str) -> Optional[str]: try: return importlib.metadata.version(module_name) except importlib.metadata.PackageNotFoundError: return None def check_environment(): # 系统信息 print("=" * 50) print("System and Environment Information") print("=" * 50) print(f"Operating System: {platform.system()}") print(f"Python Version: {sys.version}") print(f"Python Executable: {sys.executable}") print("\nPython Sys Path:") for path in sys.path: print(f" {path}") # 分隔线 print("\n" + "=" * 50) print("Deep Learning Libraries") print("=" * 50) # 检查 PyTorch try: import torch print(f"PyTorch Version: {torch.__version__}") print(f"PyTorch CUDA Version: {torch.version.cuda}") print(f"PyTorch CUDA Available: {torch.cuda.is_available()}") if torch.cuda.is_available(): print(f"CUDA Device Count: {torch.cuda.device_count()}") for i in range(torch.cuda.device_count()): print(f" GPU {i}: {torch.cuda.get_device_name(i)}") else: print("No CUDA-capable GPU detected.") except ImportError: print("PyTorch not installed.") # 检查其他常用库 print("\nOther Dependencies:") libraries = ["numpy", "opencv-python", "pillow", "matplotlib", "scipy"] for lib in libraries: version = check_module_version(lib) print(f"{lib}: {version if version else 'Not installed'}") if __name__ == "__main__": check_environment()

3 CUDA卸载并升级

首先如果跟着其他教程安装的CUDA版本低于12.8的,都需要下载CUDA12.8版本,这里我给出下载链接

CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive在这个网站挑选下载或者直接点击夸克网盘下载或者点此下载

对于CUDA版本低于12.8的,50系以上显卡建议卸载,可以参考下面的链接卸载

升级NVIDIA显卡驱动及卸载CUDA_cuda升级-ZEEKLOG博客

卸载完成后即可安装CUDA12.8,安装选项里选择自定义就可以

安装好后如下图

打开cmd,输入 nvcc -V 之后出现下面的内容即正常

安装完CUDA之后,可以选择是否安装cuDNN,需要安装的话在我其他的教程里都有提到,这里只给个CUDA12.8对应的cuDNN版本网盘下载链接 夸克网盘分享

4 conda虚拟环境更新

4.1 删除老环境

之后如果有之前安装的深度学习环境,需要先删除之前装好的环境,使用下面的命令 conda remove -n 环境名 --all

这里我用之前发的YOLOv13环境配置教程做演示,其他算法原理类似

conda remove -n yolov13 --all

需要连着输入两次y,确保环境删除干净

4.2 新建新环境

之后重新创建环境,跟之前的创建环境命令一样

conda create -n yolov13 python=3.11

4.3 安装torch

创建完成之后,首先安装torch,选择版本为2.7.0安装

pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128

torch库较大,耐心等待

4.4 安装其它所需库

安装完成之后根据教程中的继续安装其它所需库,比如YOLOv13需要安装requirements.txt中所有库,先将下面的内容复制到requirements.txt文件中保存,这一步非常重要,很多错误是因为这里没有替换

#torch==2.2.2 #torchvision==0.17.2 #flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl timm==1.0.14 albumentations==2.0.4 onnx==1.14.0 onnxruntime==1.15.1 pycocotools==2.0.7 PyYAML==6.0.1 scipy==1.13.0 onnxslim==0.1.31 onnxruntime-gpu==1.18.0 gradio==4.44.1 opencv-python==4.9.0.80 psutil==5.9.8 py-cpuinfo==9.0.0 huggingface-hub==0.23.2 safetensors==0.4.3 numpy==1.26.4 supervision==0.22.0 thop

首先cd到YOLOv13的路径下,输入下面的命令

pip install -r requirements.txt

不知道相对路径和绝对路径的可以看下面的教程,这个之前也发过

电脑小白科普——命令行中的相对路径与绝对路径_windows绝对路径和相对路径-ZEEKLOG博客

全部安装完成后,如下图所示

4.5 安装flash-attention

YOLOv13还需要安装flash-attention,需要根据CUDA版本和torch版本以及python版本选择合适的flash-attention版本,下载网站如下

Linux:Releases · Dao-AILab/flash-attention · GitHub

如果有能力可以自己编译,否则可以使用下面lldacing编译的FlashAttention库进行训练,精度会比其他人编译的正常很多

Windows:https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main

下载红框里的版本即可,也可以点击网盘下载 夸克网盘分享

之后仍然是使用相对路径安装,输入如下命令

pip install flash_attn-2.7.4.post1+cu128torch2.7.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

5 训练模型

安装完成就可以训练模型,需要先将pycharm或者其他开发软件的环境删除原有的并添加新的,选择好后仍然使用原本的训练代码就可以

import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': model = YOLO('ultralytics/cfg/models/v13/yolov13n.yaml') model.load('yolov13n.pt') #注释则不加载 results = model.train( data='data.yaml', #数据集配置文件的路径 epochs=200, #训练轮次总数 batch=16, #批量大小,即单次输入多少图片训练 imgsz=640, #训练图像尺寸 workers=8, #加载数据的工作线程数 device= 0, #指定训练的计算设备,无nvidia显卡则改为 'cpu' optimizer='SGD', #训练使用优化器,可选 auto,SGD,Adam,AdamW 等 amp= False, #True 或者 False, 解释为:自动混合精度(AMP) 训练 cache=False # True 在内存中缓存数据集图像,服务器推荐开启 )

数据集加载完成后运行训练就可以

6 训练结果

训练完成后如下图所示,使用yolov13n训练数据集,精度正常

看了文章之后50系显卡还是无法训练模型或者精度异常可以关注微信公众号-笑脸惹桃花 快速联系我解决

有写论文的大佬可以引用一下我的YOLOv11文章,十分感谢

Zhang Y, Liu J, Li S, et al. ESM-YOLOv11: A lightweight deep learning framework for real-time peanut leaf spot disease detection and precision severity quantification in field conditions[J]. Computers and Electronics in Agriculture, 2025, 238: 110801.

Read more

开源协同∞智算赋能:GitCode+昇腾NPU部署CodeLlama全流程实践

开源协同∞智算赋能:GitCode+昇腾NPU部署CodeLlama全流程实践

作者简介:华为HCIP,昇腾NPU机构专业用户。 一.引言 最近在项目里用昇腾NPU部署CodeLlama-7B,踩了不少坑,也总结了一些经验。CodeLlama在代码生成这块确实好用,昇腾NPU的算力也够用,就是部署过程需要折腾一下。整个流程从环境搭建到性能调优,中间遇到的问题不少,比如模型格式转换、内存优化、推理速度提升等等。这篇文章主要记录一下实际部署CodeLlama-7B-hf的完整过程,包括环境配置、模型适配、性能优化和常见问题处理,希望能帮到有同样需求的开发者。 二.环境搭建和基本配置 1. 测试平台选择 我们选择 GitCode 作为代码托管平台。GitCode 是 ZEEKLOG 和华为云 CodeArts 联合推出的国内开源平台,主要优势是访问速度快,适合国内开发者使用。 主要功能包括: 1. Git 版本控制、仓库管理、WebIDE 在线开发 2. 分支管理、代码审查、Issue 管理等协作功能 3. GPG

By Ne0inhk

2024最新可用!GitHub/谷歌学术/Sci-Hub镜像站合集(附实测截图)

2024科研与开发者的网络工具箱:实测可用的学术与代码资源镜像指南 作为一名长期在代码与论文之间穿梭的开发者或研究者,你是否也经历过这样的时刻:一个关键的GitHub仓库打不开,无法查阅项目文档;一篇急需的文献在谷歌学术上卡在加载界面;或是Sci-Hub的主域名又一次失联,让你与重要的研究成果失之交臂。网络环境的波动,常常成为我们高效工作的最大障碍。这篇文章,正是为你准备的。它不是一份简单的网址清单,而是一份经过2024年上半年持续实测、对比分析后的动态生存指南。我们将深入探讨这些镜像服务的原理、各自的优劣、使用时的核心注意事项,并提供超越简单访问的进阶技巧。我们的目标,是让你手头始终握有几把可靠的“钥匙”,无论网络风向如何变化,都能顺畅地打开知识宝库的大门。 1. 镜像服务的本质:为什么我们需要它们? 在深入具体网址之前,我们有必要先理解“镜像”究竟是如何工作的。简单来说,镜像站点可以被看作是一个“影子”或“副本”。当原始网站(如 github.com)因为地理距离、网络策略或其他原因导致访问缓慢或不可达时,位于其他网络环境下的服务器会定期(或实时)抓取并同步原始网站的内容,

By Ne0inhk
法奥机器人ROS2环境搭建

法奥机器人ROS2环境搭建

目录 第一章  SDK文件准备    1.1  机器人软件版本查看  第二章 测试平台搭建 2.1虚拟平台安装                     2.1.1虚拟机安装              2.1.2ubuntu 的安装 第三章 软件环境搭建         3.1  vscode安装 3.2vscode插件安装 3.3  ROS 及环境变量配置 3.1.1 Ros2-humble版本 安装 3.1.2  Ros-control版本安装 3.1.3   Moveit2版本安装 第四章  插件包导入及插件测试         4.1 MOVEIT2插件包导入 4.2 RVIZ 仿真操作简介

By Ne0inhk