50系显卡训练深度学习YOLO等算法报错的解决方法

50系显卡训练深度学习YOLO等算法报错的解决方法

1 前言

YOLO训练时报错

NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation.  
The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90.
IF you want to use the NVIDIA GeForce RTX 5090 D GPU with PyTorch, please check the instructions at ...    如下图中内容

本文将针对50系使用的NVIDIA的sm_120,也就是Blackwell架构在常用的深度学习环境配置中无法正常训练导致的问题进行一些解决,简单的方式就是使用CUDA12.8及Pytorch2.7.0版本。本文将对于下面几个我的教程中出现的50系(如5060、5070、5080、5090等)无法训练进行统一的解决,确保可以正常训练。

超详细目标检测:YOLOv11(ultralytics)训练自己的数据集,新手小白也能学会训练模型,手把手教学一看就会-ZEEKLOG博客

目标检测:YOLOv12训练自己的数据集,手把手教学一看就会-ZEEKLOG博客

YOLOv13教程:YOLOv13训练模型,超详细适合0基础小白快速上手-ZEEKLOG博客

对于其他的深度学习算法也可以尝试

2 报错自查

如果不确定自己是否存在这个问题,可以运行下面的代码查看是否有上面的报错

# 作者:ZEEKLOG-笑脸惹桃花 https://xiaolian.blog.ZEEKLOG.net/ import sys import platform import importlib.metadata from typing import Optional def check_module_version(module_name: str) -> Optional[str]: try: return importlib.metadata.version(module_name) except importlib.metadata.PackageNotFoundError: return None def check_environment(): # 系统信息 print("=" * 50) print("System and Environment Information") print("=" * 50) print(f"Operating System: {platform.system()}") print(f"Python Version: {sys.version}") print(f"Python Executable: {sys.executable}") print("\nPython Sys Path:") for path in sys.path: print(f" {path}") # 分隔线 print("\n" + "=" * 50) print("Deep Learning Libraries") print("=" * 50) # 检查 PyTorch try: import torch print(f"PyTorch Version: {torch.__version__}") print(f"PyTorch CUDA Version: {torch.version.cuda}") print(f"PyTorch CUDA Available: {torch.cuda.is_available()}") if torch.cuda.is_available(): print(f"CUDA Device Count: {torch.cuda.device_count()}") for i in range(torch.cuda.device_count()): print(f" GPU {i}: {torch.cuda.get_device_name(i)}") else: print("No CUDA-capable GPU detected.") except ImportError: print("PyTorch not installed.") # 检查其他常用库 print("\nOther Dependencies:") libraries = ["numpy", "opencv-python", "pillow", "matplotlib", "scipy"] for lib in libraries: version = check_module_version(lib) print(f"{lib}: {version if version else 'Not installed'}") if __name__ == "__main__": check_environment()

3 CUDA卸载并升级

首先如果跟着其他教程安装的CUDA版本低于12.8的,都需要下载CUDA12.8版本,这里我给出下载链接

CUDA Toolkit Archive | NVIDIA Developerhttps://developer.nvidia.com/cuda-toolkit-archive在这个网站挑选下载或者直接点击夸克网盘下载或者点此下载

对于CUDA版本低于12.8的,50系以上显卡建议卸载,可以参考下面的链接卸载

升级NVIDIA显卡驱动及卸载CUDA_cuda升级-ZEEKLOG博客

卸载完成后即可安装CUDA12.8,安装选项里选择自定义就可以

安装好后如下图

打开cmd,输入 nvcc -V 之后出现下面的内容即正常

安装完CUDA之后,可以选择是否安装cuDNN,需要安装的话在我其他的教程里都有提到,这里只给个CUDA12.8对应的cuDNN版本网盘下载链接 夸克网盘分享

4 conda虚拟环境更新

4.1 删除老环境

之后如果有之前安装的深度学习环境,需要先删除之前装好的环境,使用下面的命令 conda remove -n 环境名 --all

这里我用之前发的YOLOv13环境配置教程做演示,其他算法原理类似

conda remove -n yolov13 --all

需要连着输入两次y,确保环境删除干净

4.2 新建新环境

之后重新创建环境,跟之前的创建环境命令一样

conda create -n yolov13 python=3.11

4.3 安装torch

创建完成之后,首先安装torch,选择版本为2.7.0安装

pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128

torch库较大,耐心等待

4.4 安装其它所需库

安装完成之后根据教程中的继续安装其它所需库,比如YOLOv13需要安装requirements.txt中所有库,先将下面的内容复制到requirements.txt文件中保存,这一步非常重要,很多错误是因为这里没有替换

#torch==2.2.2 #torchvision==0.17.2 #flash_attn-2.7.3+cu11torch2.2cxx11abiFALSE-cp311-cp311-linux_x86_64.whl timm==1.0.14 albumentations==2.0.4 onnx==1.14.0 onnxruntime==1.15.1 pycocotools==2.0.7 PyYAML==6.0.1 scipy==1.13.0 onnxslim==0.1.31 onnxruntime-gpu==1.18.0 gradio==4.44.1 opencv-python==4.9.0.80 psutil==5.9.8 py-cpuinfo==9.0.0 huggingface-hub==0.23.2 safetensors==0.4.3 numpy==1.26.4 supervision==0.22.0 thop

首先cd到YOLOv13的路径下,输入下面的命令

pip install -r requirements.txt

不知道相对路径和绝对路径的可以看下面的教程,这个之前也发过

电脑小白科普——命令行中的相对路径与绝对路径_windows绝对路径和相对路径-ZEEKLOG博客

全部安装完成后,如下图所示

4.5 安装flash-attention

YOLOv13还需要安装flash-attention,需要根据CUDA版本和torch版本以及python版本选择合适的flash-attention版本,下载网站如下

Linux:Releases · Dao-AILab/flash-attention · GitHub

如果有能力可以自己编译,否则可以使用下面lldacing编译的FlashAttention库进行训练,精度会比其他人编译的正常很多

Windows:https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main

下载红框里的版本即可,也可以点击网盘下载 夸克网盘分享

之后仍然是使用相对路径安装,输入如下命令

pip install flash_attn-2.7.4.post1+cu128torch2.7.0cxx11abiFALSE-cp311-cp311-win_amd64.whl

5 训练模型

安装完成就可以训练模型,需要先将pycharm或者其他开发软件的环境删除原有的并添加新的,选择好后仍然使用原本的训练代码就可以

import warnings warnings.filterwarnings('ignore') from ultralytics import YOLO if __name__ == '__main__': model = YOLO('ultralytics/cfg/models/v13/yolov13n.yaml') model.load('yolov13n.pt') #注释则不加载 results = model.train( data='data.yaml', #数据集配置文件的路径 epochs=200, #训练轮次总数 batch=16, #批量大小,即单次输入多少图片训练 imgsz=640, #训练图像尺寸 workers=8, #加载数据的工作线程数 device= 0, #指定训练的计算设备,无nvidia显卡则改为 'cpu' optimizer='SGD', #训练使用优化器,可选 auto,SGD,Adam,AdamW 等 amp= False, #True 或者 False, 解释为:自动混合精度(AMP) 训练 cache=False # True 在内存中缓存数据集图像,服务器推荐开启 )

数据集加载完成后运行训练就可以

6 训练结果

训练完成后如下图所示,使用yolov13n训练数据集,精度正常

看了文章之后50系显卡还是无法训练模型或者精度异常可以关注微信公众号-笑脸惹桃花 快速联系我解决

有写论文的大佬可以引用一下我的YOLOv11文章,十分感谢

Zhang Y, Liu J, Li S, et al. ESM-YOLOv11: A lightweight deep learning framework for real-time peanut leaf spot disease detection and precision severity quantification in field conditions[J]. Computers and Electronics in Agriculture, 2025, 238: 110801.

Read more

【AI】学习大语言模型原理必看的 10 篇论文

【AI】学习大语言模型原理必看的 10 篇论文

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《AI》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、Transformer * 二、GPT-3 * 三、InstructGPT * 四、Sparrow * 五、RLHF * 六、TATAMER * 七、PPO * 八、In-Context Learning * 8.1 Why Can GPT Learn In-Context * 8.2 What learning algorithm is in-context learning * 九、Prompt * 总结 前言 从 Transformer

By Ne0inhk

OpenClaw.ai:Agentic AI 时代的“SpringFramework”时刻

—— 关于下一代智能体基础设施架构、生态演进与企业级可行性的系统性研究报告 第一章 历史的镜像:从软件危机到 Agentic AI 的基础设施真空 1.1 J2EE 的黄昏与 Spring 的黎明:关于复杂性的辩证法 要理解“Spring Framework 时刻”的深刻含义,我们必须将目光投向 21 世纪初的 Java 企业级开发领域。彼时,J2EE(Java 2 Platform, Enterprise Edition)虽然承诺了分布式计算的宏大愿景,但其实现方式——特别是 EJB(Enterprise JavaBeans)——却陷入了过度设计的泥潭。开发者被迫编写大量的 XML 配置文件,继承复杂的接口,不仅难以进行单元测试,且组件之间的耦合度极高。这种“重量级”框架导致的开发效率低下,被称为“J2EE

By Ne0inhk
OpenClaw 入门指南:AI Agent 开发新范式

OpenClaw 入门指南:AI Agent 开发新范式

目 录 * 一、OpenClaw 是什么?为什么它如此火爆? * 1.1 项目背景与起源 * 1.2 核心定位与价值主张 * 1.3 与主流框架的技术对比 * 1.4 技术架构全景解析 * 二、快速部署:5 分钟上手体验 * 2.1 环境要求与准备 * 2.2 部署流程概览 * 2.3 详细安装步骤 * 2.4 常见安装问题排查 * 三、部署方案深度对比 * 3.1 四种主流部署方案 * 3.2 方案详细对比 * 3.3 方案一:本地开发机(零成本体验) * 3.4 方案二:

By Ne0inhk
手把手教你开发“AI数据分析师”:利用IPIDEA + 智能体实现全网数据洞察

手把手教你开发“AI数据分析师”:利用IPIDEA + 智能体实现全网数据洞察

前言:为何需要构建一个更智能的数据助手 在当前人工智能的浪潮中,大语言模型(LLM)驱动的智能体(Agent)展现了巨大的潜力。理论上,它们可以自动化执行任务、分析数据,成为我们的得力助手。但在实际开发和使用中,我们常常会遇到一个瓶颈:智能体似乎“不够聪明”,无法获取最新、最真实的数据。这篇将记录并分享如何解决这一核心痛点,通过将智能体与专业的网络数据采集服务(IPIDEA)相结合,从零到一构建一个真正具备全网数据洞察能力的“AI数据分析师”。 第一章 为何我们的智能体“不够聪明” 在着手解决问题之前,首先需要清晰地界定问题本身。智能体在数据获取层面的“不聪明”主要源于两个相互关联的障碍:大模型自身的局限性和传统网络数据抓取的技术壁垒。 1.1 大模型的数据滞后与“幻觉”痛点 大语言模型的能力根植于其庞大的训练数据。然而,这些数据并非实时更新的。绝大多数模型的知识都存在一个“截止日期”,它们无法知晓在该日期之后发生的新闻、发布的财报、变化的商品价格或网络热点。当我们向智能体询问这些实时性要求高的问题时,它可能会坦白自己的知识局限,或者更糟糕地,它会根据已有的模式“

By Ne0inhk