深度学习 | pytorch + torchvision + python 版本对应及环境安装

深度学习 | pytorch + torchvision + python 版本对应及环境安装
Hi,大家好,我是半亩花海。要让一个基于 torch 框架开发的深度学习模型正确运行起来,配置环境是个重要的问题,本文介绍了 pytorchtorchvision、torchaudio 及 python 的对应版本以及环境安装的相关流程。

目录

一、版本对应

二、安装命令(pip)

1. 版本

(1)v2.5.1 ~ v2.0.0

(2)v1.13.1 ~ v1.11.0

(3)v1.10.1 ~ v1.7.0

2. 安装全过程

(1)选择版本

(2)安装结果

参考文章


一、版本对应

下表来自 pytorch 的 github 官方文档:pytorch/vision: Datasets, Transforms and Models specific to Computer Vision

pytorch 安装官网Start Locally | PyTorchpytorch 之前版本的安装命令Previous PyTorch Versions | PyTorchtorch、torchvision 等相关库download.pytorch.org/whl/torch_stable.html

其中,命令中 "-c pytorch" 表示官方源,自己换源可以去掉。
torch 版本torchvision 版本torchaudio 版本支持的 Python 版本(示例)Cuda 版本
2.5.10.20.12.5.1>=3.9, <3.13(3.12)[9/10/11/12]12.4/12.1/11.8
2.5.00.20.02.5.0>=3.9, <3.13(3.12)12.4/12.1/11.8
2.4.10.19.12.4.1>=3.8, <3.13(3.12)[8/9/10/11/12]12.4/12.1/11.8
2.4.00.19.02.4.0>=3.8, <3.13(3.12)12.4/12.1/11.8
2.3.10.18.12.3.1>=3.8, <3.13(3.12)8/9/10/11/1212.1/11.8
2.3.00.18.02.3.0>=3.8, <3.13(3.12)12.1/11.8
2.2.20.17.22.2.2>=3.8, <3.12 [8/9/10/11]12.1/11.8
2.2.10.17.12.2.1>=3.8, <3.1212.1/11.8
2.2.00.17.02.2.0>=3.8, <3.1212.1/11.8
2.1.20.16.22.1.2>=3.8, <3.12(3.10)8/9/10/1112.1/11.8
2.1.10.16.12.1.1>=3.8, <3.12(3.10)12.1/11.8
2.1.00.16.02.1.0>=3.8, <3.12(3.10)12.1/11.8
2.0.00.15.02.0.0>=3.8, <3.12(3.8)[8/9/10/11]11.8/11.7
1.13.10.14.10.13.1>=3.7.2, <=3.10(3.8)[7/8/9/10]11.7/11.6
1.13.00.14.00.13.0>=3.7.2, <=3.10(3.8)11.7/11.6
1.12.10.13.11.12.1>=3.7, <=3.10(3.8)[7/8/9/10]11.6/11.3/10.2
1.12.00.13.01.12.0>=3.7, <=3.10(3.8)11.6/11.3/10.2
1.11.00.12.01.11.0>=3.7, <=3.10(3.8)11.3/10.2
1.10.10.11.20.10.1>=3.6, <=3.9(3.8)[6/7/8/9]11.3/10.2
1.10.00.11.00.10.0>=3.6, <=3.9(3.8)11.3/10.2
1.9.10.10.10.9.1>=3.6, <=3.9(3.8)[6/7/8/9]11.1/10.2
1.9.00.10.00.9.0>=3.6, <=3.9(3.8)11.1/10.2
1.8.10.9.10.8.1>=3.6, <=3.9(3.8)[6/7/8/9]11.1/10.2
1.8.00.9.00.8.0>=3.6, <=3.9(3.8)11.1/10.2
1.7.10.8.20.7.2>=3.6(3.6)11.0/10.2/10.1
1.7.00.8.00.7.0>=3.6(3.6)11.0/10.2/10.1

二、安装命令(pip)

1. 版本

(1)v2.5.1 ~ v2.0.0

# v2.5.1 # CUDA 12.4 pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cu124 -i https://pypi.tuna.tsinghua.edu.cn/simple/ # CPU only pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/

(2)v1.13.1 ~ v1.11.0

# v1.13.1 # CUDA 11.7 pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117 -i https://pypi.tuna.tsinghua.edu.cn/simple/ # CPU only pip install torch==1.13.1+cpu torchvision==0.14.1+cpu torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/

(3)v1.10.1 ~ v1.7.0

# v1.10.1 # CUDA 10.2 pip install torch==1.10.1+cu102 torchvision==0.11.2+cu102 torchaudio==0.10.1 -f https://download.pytorch.org/whl/cu102/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/ # CPU only pip install torch==1.10.1+cpu torchvision==0.11.2+cpu torchaudio==0.10.1 -f https://download.pytorch.org/whl/cpu/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

2. 安装全过程

(1)选择版本

torch 版本torchvision 版本torchaudio 版本支持的 Python 版本(示例)Cuda 版本
2.1.00.16.02.1.0>=3.8, <3.12(3.10)12.1/11.8

这里选择的框架和环境如下:torch2.1.0 | torchvision0.16.0 | torchaudio2.1.0 | python3.10 | Cuda12.1,若需要将创建的虚拟环境添加到 Jupyter Lab / Jupyter Notebook 中使用,则需要第 3-6 步,否则不用。

打开 WIN + R,输入 “cmd”,进入命令行窗口,其他步骤如下:

# 1. Anaconda 创建虚拟环境 conda create -n torch python=3.10 # 2. 激活并进入虚拟环境 activate torch # 3. 安装 ipykernel pip install ipykernel -i https://pypi.tuna.tsinghua.edu.cn/simple/ # 4. 安装ipykernel,将虚拟环境加入 jupyter 内核中 python -m ipykernel install --name torch --display-name torch # 5. 检查新虚拟环境是否成功加入内核 jupyter kernelspec list # 6. 从指定文件夹里进入 jupyter jupyter lab # 7. 安装 torch 等软件包 pip install torch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 --index-url https://download.pytorch.org/whl/cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/
注意:此时,因为 Numpy 2.x 等其他的相关库与 Pytorch 2.1.0 的不兼容(以 Numpy 库为例),所以需要将 numpy 库的版本降级至1.x.x(如 1.24.x1.23.x 版本)才能与 Pytorch 2.1.0 是兼容,从而适配以上版本。具体示例步骤如下:pip uninstall numpypip install numpy==1.24.3
注意:若在安装途中不小心关闭了命令窗或者发现没有关闭梯子,可先将 Anaconda 的环境中删除未完全安装好的虚拟环境(如在  E:\Anaconda\envs\torch 此目录下),即可重新进行上述安装步骤。

(2)安装结果

3. 命令相关解释

(1)-i / --index-url

第一条命令:pip install torch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 --index-url https://download.pytorch.org/whl/cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/
  • --index-url https://download.pytorch.org/whl/cpu:这个参数指定了主要的包索引源 URL,即使用 https://download.pytorch.org/whl/cpu 作为 PyTorch 相关库的包来源。这是 PyTorch 官方的 CPU 版本的二进制文件源。
  • -i https://pypi.tuna.tsinghua.edu.cn/simple/:这个参数指定了镜像源,指向清华大学的 PyPI 镜像源,以加速从 PyPI 安装包的速度。
  • 当同时使用 --index-url-i 时,--index-url 会设置 主索引源(比如官方 PyTorch 或其他自定义源),而 -i 用来指定 一个额外的索引源 / 备用源(如清华镜像)。此时,pip 会先从 --index-url 指定的源查找包,如果找不到,才会去 -i 指定的额外源查找。

(2)--extra-index-url

第二条命令:pip install torch==1.13.1+cpu torchvision==0.14.1+cpu torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/
  • --extra-index-url https://download.pytorch.org/whl/cpu:这个参数指定了额外的索引源 URL。与 --index-url 不同,--extra-index-url 只是添加额外的索引源,而不是替换原有源。此处指定的是 PyTorch 官方 CPU 版本的源。
  • -i https://pypi.tuna.tsinghua.edu.cn/simple/:同样指定了 PyPI 镜像源,指向清华大学的 PyPI 镜像源。
第三条命令:pip install torch==1.10.1+cpu torchvision==0.11.2+cpu torchaudio==0.10.1 -f https://download.pytorch.org/whl/cpu/torch_stable.html -i https://pypi.tuna.tsinghua.edu.cn/simple/
  • -f https://download.pytorch.org/whl/cpu/torch_stable.html:这个参数用于指定一个包的 URL 文件列表(一个 .html.xml 文件),其中列出了稳定版本的 PyTorch 安装包。
  • -i https://pypi.tuna.tsinghua.edu.cn/simple/:同样指定了 PyPI 镜像源,指向清华大学的 PyPI 镜像源。

参考文章

[1] pytorch,torchvision与python版本对应关系及安装命令_pytorch python版本-ZEEKLOG博客

[2] Python安装torch(含torch和torchvision对应版本)-ZEEKLOG博客

Read more

Clawdbot整合Qwen3-32B保姆级教程:Web网关18789端口调试全记录

Clawdbot整合Qwen3-32B保姆级教程:Web网关18789端口调试全记录 1. 为什么需要这个整合方案 你是不是也遇到过这样的问题:想用本地部署的大模型做聊天机器人,但发现直接调用Ollama的API在Web前端里跨域报错?或者Clawdbot配置完后一直连不上模型,控制台疯狂刷404?又或者好不容易跑起来了,发个消息却卡在“正在思考”半天没反应? 这正是我们搭建这套环境时踩过的坑。Clawdbot本身不直接对接Ollama,它需要一个中间层来处理协议转换、请求转发和端口映射。而18789这个端口,就是整个链路里最关键的“通关密码”——它不是随便选的,而是Clawdbot默认监听的Web网关入口。 整套方案的核心逻辑其实很朴素: * 你在浏览器里访问 http://localhost:18789,看到的是Clawdbot的聊天界面 * Clawdbot收到你的消息后,不自己去算答案,而是把请求转给内部代理 * 代理再把请求发到 http://localhost:8080(Ollama API地址) * Ollama调用本地的Qwen3-32B模型生成回复

By Ne0inhk
《Web 自动化测试入门:从概念到百度搜索实战全拆解》

《Web 自动化测试入门:从概念到百度搜索实战全拆解》

一、自动化的核心概念 1. 定义:通过自动方式替代人工操作完成任务,生活中常见案例(自动洒水机、自动洗手液、超市闸机)体现了 “减少人力消耗、提升效率 / 质量” 的特点。 2. 软件自动化测试的核心目的: * 用于回归测试:软件迭代新版本时,验证新增功能是否影响历史功能的正常运行。 3. 常见面试题解析: * 自动化测试不能完全取代人工测试:需人工编写脚本,且功能变更后需维护更新,可靠性未必优于人工。 * 自动化测试不能 “大幅度降低工作量”:仅能 “一定程度” 减少重复工作,需注意表述的严谨性。 二、自动化测试的分类 自动化是统称,包含多种类型,核心分类及说明如下: 分类说明接口自动化针对软件接口的测试,目的是验证接口的功能、性能、稳定性等。UI 自动化 针对软件界面的测试,包含: 1. 移动端自动化:通过模拟器在电脑上编写脚本,测试手机应用;稳定性较差(受设备、

By Ne0inhk

使用Docker安装Ollama及Open-WebUI完整教程

作者:吴业亮 博客:wuyeliang.blog.ZEEKLOG.net 一、Ollama 简介及工作原理 1. Ollama 简介及原理 * 简介:Ollama 是一款轻量级、开源的大语言模型(LLM)运行工具,旨在简化本地部署和运行大语言模型的流程。它支持 Llama 3、Mistral、Gemini 等主流开源模型,用户无需复杂配置即可在本地设备(CPU 或 GPU)上快速启动模型,适用于开发测试、本地智能应用搭建等场景。 * 工作原理: * 采用模型封装机制,将大语言模型的运行环境、依赖库及推理逻辑打包为标准化格式,实现模型的一键下载、启动和版本管理。 * 通过优化的推理引擎适配硬件架构,支持 CPU 基础运行和 GPU 加速(如 NVIDIA CUDA),减少资源占用并提升响应速度。 * 提供简洁的

By Ne0inhk
离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

过去一年多,我做了一个挺重要的决定:辞职,去韩国留学读研。 这段时间我几乎没怎么学习新的前端内容,但也没有停下来。我在韩国亚洲大学完成了计算机科学与技术(大数据)硕士的学习,在高强度的节奏里重新建立了自己的方法,也因为持续写博客获得了一些机会,担任本科 Web 实训课讲师。现在这段留学告一段落,我也准备重新回到前端领域,把这段经历当作一份额外的积累带回去。这篇复盘主要是想把这一路的收获、疲惫和一些值得记住的瞬间记录下来,留给未来的自己,也分享给路过的你。 文章目录 * 1、写在前面:我为什么会从前端转去读研 * 2、留学生活的关键词:卷、AI、被看见以及校庆的“放开玩” * 3、我的“结果卡片” * 4、得:这一年半我真正收获的东西 * 5、失:我付出的代价 * 6、期末周:我经历过的“高强度交付周” * 7、前端三年经验,如何在读研里“迁移复用” * 8、我在韩国的学习系统:

By Ne0inhk