RTX50系显卡+CUDA+torch+python对应关系

RTX50系显卡+CUDA+torch+python对应关系

前言

本人的显卡是RTX5070,使用时发现它对CUDA、torch和python版本有要求,试图按照老项目的依赖文件进行安装发现安不了,因此记录一下(截至2025年6月)。


提示:以下是本篇文章正文内容,下面案例可供参考

一、RTX50系显卡只能使用CUDA12.8

二、目前只支持torch2.7.0和2.7.1

1.去pytorch官网的https://download.pytorch.org/whl/torch/看一下,确实只有2.7.0和2.7.1有对应cuda12.8的。

注:此图中包含了所有对应CUDA12.8的whl文件,可根据操作系统和python版本选择

在这里插入图片描述


在这里插入图片描述

torch2.7.1及对应torchvision torchaudio安装指令:

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128

三、同理上图,python版本太低也不行,至少得3.9以上吧


总结

不过torch这些一般是向下兼容的,一般可以直接用高版本的去跑老的低torch版本的项目,但可能会遇到numpy等库有点问题得改改。

Read more

Python 爬虫实战:爬取音乐平台(网易云 / QQ 音乐)歌曲信息

前言 音乐平台汇聚了海量的歌曲资源,包含歌名、歌手、专辑、播放量、歌词等核心信息,这些数据在音乐趋势分析、个性化推荐研究、音乐版权管理等场景中具有重要价值。传统手动整理歌曲信息的方式效率极低,而基于 Python 的爬虫技术能够批量采集音乐平台的歌曲数据,大幅提升数据获取效率。本文以网易云音乐和 QQ 音乐两大主流平台为例,系统讲解歌曲信息爬取的技术方案、接口解析方法及数据结构化处理,为音乐数据分析师和开发者提供可落地的实战指南。 摘要 本文聚焦音乐平台歌曲信息的爬取实战,分别以网易云音乐网页版和QQ 音乐网页版为核心操作对象(可直接点击进入对应平台),从抓包分析接口、构造请求参数,到多维度歌曲信息提取、数据清洗与存储,完整实现歌名、歌手、专辑、播放量、时长等核心字段的采集。文中包含可直接运行的代码案例、接口参数说明表格及数据输出结果,兼顾技术深度与实操性,帮助读者掌握不同音乐平台歌曲数据爬虫开发的核心技术。 一、技术栈与原理概述 1.1 核心技术栈 < 技术 / 库功能说明

By Ne0inhk
Python深度挖掘:openpyxl和pandas的使用详细

Python深度挖掘:openpyxl和pandas的使用详细

文章目录 * 一、Excel处理在数据分析中的重要性 * 二、openpyxl基础与核心功能 * 2.1 openpyxl简介与安装 * 2.2 工作簿与工作表的基本操作 * 创建新工作簿 * 打开已有工作簿 * 工作表操作 * 2.3 单元格操作详解 * 基本单元格操作 * 批量操作单元格 * 特殊单元格操作 * 2.4 样式与格式设置 * 字体样式 * 对齐方式 * 边框设置 * 填充颜色 * 数字格式 * 2.5 公式与计算 * 2.6 图表与图像操作 * 创建图表 * 插入图像 * 2.7 高级功能 * 数据验证 * 条件格式 * 保护工作表 * 冻结窗格 * 三、pandas基础与核心功能 * 3.1 pandas简介与安装 * 3.2

By Ne0inhk
LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策

LangGraph 智能体状态管理与决策 * 写在最前面 🌌你好!这里是 晓雨的笔记本在所有感兴趣的领域扩展知识,感谢你的陪伴与支持~👋 欢迎添加文末好友,不定期掉落福利资讯 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 本次演示围绕 Bright Data Web MCP 与 LangGraph 的集成实操 展开,完整展示了从获取大模型 API Key、创建大模型会话,到获取 Bright Data API Key、通过 MultiServerMCPClient 连接 Web MCP 服务器,并在 Bright Data 后台进一步启用浏览器自动化工具、扩展智能体可调用能力的全流程;同时结合 LangGraph

By Ne0inhk
【笔记】在 Windows 上安装 Python-vLLM

【笔记】在 Windows 上安装 Python-vLLM

SystemPanic/vllm-windows:用于 LLM(Windows 构建和内核)的高吞吐量和内存效率推理和服务引擎 在 Windows 上安装 vLLM 有两种方式,分别是通过已发布的 wheel 包安装和从源码构建安装,具体步骤如下: 一、通过现有发布的 wheel 包安装(推荐) 发布 v0.11.0 ·SystemPanic/vllm-windows vllm-0.11.0+cu124-cp312-cp312-win_amd64.whl 1. 确认版本兼容性 确保你的 Python、PyTorch 和 CUDA 版本与 wheel 包要求一致(版本信息会在发布版本中注明)。 2. 下载 wheel 包 从 最新发布页面

By Ne0inhk