50系显卡训练深度学习YOLO等算法报错的解决方法

50系显卡训练深度学习YOLO等算法报错的解决方法

1 前言

YOLO训练时报错

NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.  
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90.
IF you want to use the NVIDIA GeForce RTX 5090 D GPU with PyTorch, please check the instructions at ...    如下图中内容

本文将针对50系使用的NVIDIA的sm_120,也就是Blackwell架构在常用的深度学习环境配置中无法正常训练导致的问题进行一些解决,简单的方式就是使用CUDA12.8及Pytorch2.7.0版本。本文将对于下面几个我的教程中出现的50系(如5060、5070、5080、5090等)无法训练进行统一的解决,确保可以正常训练。

超详细目标检测:YOLOv11(ultralytics)训练自己的数据集,新手小白也能学会训练模型,手把手教学一看就会-ZEEKLOG博客

目标检测:YOLOv12训练自己的数据集,手把手教学一看就会-ZEEKLOG博客

YOLOv13教程:YOLOv13训练模型,超详细适合0基础小白快速上手-ZEEKLOG博客

对于其他的深度学习算法也可以尝试

2 报错自查

如果不确定自己是否存在这个问题,可以运行下面的代码查看是否有上面的报错

# 作者:ZEEKLOG-笑脸惹桃花 https://xiaolian.blog.ZEEKLOG.net/ import sys import platform import importlib.metadata from typing import Optional def check_module_version(module_name: str) -> Optional[str]: try: return importlib.metadata.version(module_name) except importlib.metadata.PackageNotFoundError: return None def check_environment(): # 系统信息 print("=" * 50) print("System and Environment Information") print("=" * 50) print(f"Operating System: {platform.system()}") print(f"Python Version: {sys.version}") print(f"Python Executable: {sys.executable}") print("\nPython Sys Path:") for path in sys.path: print(f" {path}") # 分隔线 print("\n" + "=" * 50) print("Deep Learning Libraries") print("=" * 50) # 检查 PyTorch try: import torch print(f"PyTorch Version: {torch.__version__}") print(f"PyTorch CUDA Version: {torch.version.cuda}") print(f"PyTorch CUDA Available: {torch.cuda.is_available()}") if torch.cuda.is_available(): print(f"CUDA Device Count: {torch.cuda.device_count()}") for i in range(torch.cuda.device_count()): print(f" GPU {i}: {torch.cuda.get_device_name(i)}") else: print("No CUDA-capable GPU detected.") except ImportError: print("PyTorch not installed.") # 检查其他常用库 print("\nOther Dependencies:") libraries = ["numpy", "opencv-python", "pillow", "matplotlib", "scipy"] for lib in libraries: version = check_module_version(lib) print(f"{lib}: {version if version else 'Not installed'}") if __name__ == "__main__": check_environment()

3 CUDA卸载并升级

首先如果跟着其他教程安装的CUDA版本低于12.8的,都需要下载CUDA12.8版本,这里我给出下载链接

CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive在这个网站挑选下载或者直接点击夸克网盘下载或者点此下载

对于CUDA版本低于12.8的,50系以上显卡建议卸载,可以参考下面的链接卸载

升级NVIDIA显卡驱动及卸载CUDA_cuda升级-ZEEKLOG博客

卸载完成后即可安装CUDA12.8,安装选项里选择自定义就可以

安装好后如下图

打开cmd,输入 nvcc -V 之后出现下面的内容即正常

安装完CUDA之后,可以选择是否安装cuDNN,需要安装的话在我其他的教程里都有提到,这里只给个CUDA12.8对应的cuDNN版本网盘下载链接 夸克网盘分享

4 conda虚拟环境更新

4.1 删除老环境

之后如果有之前安装的深度学习环境,需要先删除之前装好的环境,使用下面的命令 conda remove -n 环境名 --all

这里我用之前发的YOLOv13环境配置教程做演示,其他算法原理类似

conda remove -n yolov13 --all

需要连着输入两次y,确保环境删除干净

4.2 新建新环境

之后重新创建环境,跟之前的创建环境命令一样

conda create -n yolov13 python=3.11

4.3 安装torch

创建完成之后,首先安装torch,选择版本为2.7.0安装

pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128

torch库较大,耐心等待

4.4 安装其它所需库

安装完成之后根据教程中的继续安装其它所需库,比如YOLOv13需要安装requirements.txt中所有库,先将下面的内容复制到requirements.txt文件中保存,这一步非常重要,很多错误是因为这里没有替换

#torch==2.2.2 #torchvision==0.17.2 #flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl timm==1.0.14 albumentations==2.0.4 onnx==1.14.0 onnxruntime==1.15.1 pycocotools==2.0.7 PyYAML==6.0.1 scipy==1.13.0 onnxslim==0.1.31 onnxruntime-gpu==1.18.0 gradio==4.44.1 opencv-python==4.9.0.80 psutil==5.9.8 py-cpuinfo==9.0.0 huggingface-hub==0.23.2 safetensors==0.4.3 numpy==1.26.4 supervision==0.22.0 thop

首先cd到YOLOv13的路径下,输入下面的命令

pip install -r requirements.txt

不知道相对路径和绝对路径的可以看下面的教程,这个之前也发过

电脑小白科普——命令行中的相对路径与绝对路径_windows绝对路径和相对路径-ZEEKLOG博客

全部安装完成后,如下图所示

4.5 安装flash-attention

YOLOv13还需要安装flash-attention,需要根据CUDA版本和torch版本以及python版本选择合适的flash-attention版本,下载网站如下

Linux:Releases · Dao-AILab/flash-attention · GitHub

如果有能力可以自己编译,否则可以使用下面lldacing编译的FlashAttention库进行训练,精度会比其他人编译的正常很多

Windows:https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main

下载红框里的版本即可,也可以点击网盘下载 夸克网盘分享

之后仍然是使用相对路径安装,输入如下命令

pip install flash_attn-2.7.4.post1+cu128torch2.7.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

5 训练模型

安装完成就可以训练模型,需要先将pycharm或者其他开发软件的环境删除原有的并添加新的,选择好后仍然使用原本的训练代码就可以

import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': model = YOLO('ultralytics/cfg/models/v13/yolov13n.yaml') model.load('yolov13n.pt') #注释则不加载 results = model.train( data='data.yaml', #数据集配置文件的路径 epochs=200, #训练轮次总数 batch=16, #批量大小,即单次输入多少图片训练 imgsz=640, #训练图像尺寸 workers=8, #加载数据的工作线程数 device= 0, #指定训练的计算设备,无nvidia显卡则改为 'cpu' optimizer='SGD', #训练使用优化器,可选 auto,SGD,Adam,AdamW 等 amp= False, #True 或者 False, 解释为:自动混合精度(AMP) 训练 cache=False # True 在内存中缓存数据集图像,服务器推荐开启 )

数据集加载完成后运行训练就可以

6 训练结果

训练完成后如下图所示,使用yolov13n训练数据集,精度正常

看了文章之后50系显卡还是无法训练模型或者精度异常可以关注微信公众号-笑脸惹桃花 快速联系我解决

有写论文的大佬可以引用一下我的YOLOv11文章,十分感谢

Zhang Y, Liu J, Li S, et al. ESM-YOLOv11: A lightweight deep learning framework for real-time peanut leaf spot disease detection and precision severity quantification in field conditions[J]. Computers and Electronics in Agriculture, 2025, 238: 110801.

Read more

【AI大模型】DeepSeek + 通义万相高效制作AI视频实战详解

【AI大模型】DeepSeek + 通义万相高效制作AI视频实战详解

目录 一、前言 二、AI视频概述 2.1 什么是AI视频 2.2 AI视频核心特点 2.3 AI视频应用场景 三、通义万相介绍 3.1 通义万相概述 3.1.1 什么是通义万相 3.2 通义万相核心特点 3.3 通义万相技术特点 3.4 通义万相应用场景 四、DeepSeek + 通义万相制作AI视频流程 4.1 DeepSeek + 通义万相制作视频优势 4.1.1 DeepSeek 优势 4.1.2 通义万相视频生成优势 4.2

By Ne0inhk
【DeepSeek微调实践】DeepSeek-R1大模型基于MS-Swift框架部署/推理/微调实践大全

【DeepSeek微调实践】DeepSeek-R1大模型基于MS-Swift框架部署/推理/微调实践大全

系列篇章💥 No.文章01【DeepSeek应用实践】DeepSeek接入Word、WPS方法详解:无需代码,轻松实现智能办公助手功能02【DeepSeek应用实践】通义灵码 + DeepSeek:AI 编程助手的实战指南03【DeepSeek应用实践】Cline集成DeepSeek:开源AI编程助手,终端与Web开发的超强助力04【DeepSeek开发入门】DeepSeek API 开发初体验05【DeepSeek开发入门】DeepSeek API高级开发指南(推理与多轮对话机器人实践)06【DeepSeek开发入门】Function Calling 函数功能应用实战指南07【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:本地部署与API服务快速上手08【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:Web聊天机器人部署指南09【DeepSeek部署实战】DeepSeek-R1-Distill-Qwen-7B:基于vLLM 搭建高性能推理服务器10【DeepSeek部署实战】基于Ollama快速部署Dee

By Ne0inhk

DeepSeek各版本说明与优缺点分析_deepseek各版本区别

DeepSeek各版本说明与优缺点分析 DeepSeek是最近人工智能领域备受瞩目的一个语言模型系列,其在不同版本的发布过程中,逐步加强了对多种任务的处理能力。本文将详细介绍DeepSeek的各版本,从版本的发布时间、特点、优势以及不足之处,为广大AI技术爱好者和开发者提供一份参考指南。 1. DeepSeek-V1:起步与编码强劲 DeepSeek-V1是DeepSeek的起步版本,这里不过多赘述,主要分析它的优缺点。 发布时间: 2024年1月 特点: DeepSeek-V1是DeepSeek系列的首个版本,预训练于2TB的标记数据,主打自然语言处理和编码任务。它支持多种编程语言,具有强大的编码能力,适合程序开发人员和技术研究人员使用。 优势: * 强大编码能力:支持多种编程语言,能够理解和生成代码,适合开发者进行自动化代码生成与调试。 * 高上下文窗口:支持高达128K标记的上下文窗口,能够处理较为复杂的文本理解和生成任务。 缺点: * 多模态能力有限:该版本主要集中在文本处理上,缺少对图像、语音等多模态任务的支持。 * 推理能力较弱:尽管在自然语言

By Ne0inhk

用DeepSeek和Cursor从零打造智能代码审查工具:我的AI编程实践

💂 个人网站:【 摸鱼游戏】【神级代码资源网站】【星海网址导航】摸鱼、技术交流群👉 点此查看详情 引言:AI编程革命下的机遇与挑战 GitHub统计显示,使用AI编程工具的开发者平均效率提升55%,但仅有23%的开发者能充分发挥这些工具的潜力。作为一名全栈工程师,我曾对AI编程持怀疑态度,直到一次紧急项目让我彻底改变了看法。客户要求在72小时内交付一个能自动检测代码漏洞、优化性能的智能审查系统,传统开发方式根本不可能完成。正是这次挑战,让我探索出DeepSeek和Cursor这对"黄金组合"的惊人潜力。 一、工具选型:深入比较主流AI编程工具 1.1 为什么最终选择DeepSeek+Cursor? 经过两周的对比测试,我们发现不同工具在代码审查场景的表现差异显著: 工具代码理解深度响应速度定制灵活性多语言支持GitHub Copilot★★★☆★★★★★★☆★★★★Amazon CodeWhisperer★★☆★★★☆★★★★★★☆DeepSeek★★★★☆★★★★★★★☆★★★★☆Cursor★★★☆★★★★☆★★★★★★★★ 关键发现: * Dee

By Ne0inhk