几种查看PyTorch、cuda 和 Python 版本方法

几种查看PyTorch、cuda 和 Python 版本方法

在检查 PyTorch、cuda 和 Python 版本时,除了直接使用 torch.__version__sys.version,我们还可以通过其他方式实现相同的功能

方法 1:直接访问属性(原始代码)

import torch import sys print("PyTorch Version: {}".format(torch.__version__))print("Python Version: {}".format(sys.version))

特点

  • 简单直接,无需额外依赖。
  • 适用于快速检查版本信息。

方法 2:通过命令行工具

如果希望在脚本外部检查版本,可以直接使用命令行工具。

Python 版本
python --version # 或 python -V 
PyTorch 版本
python -c "import torch; print(torch.__version__)"

特点

  • 适用于脚本外部检查,无需编写 Python 代码。
  • 可以集成到 CI/CD 流程中。

方法 3:使用 torch.version 模块

PyTorch 提供了一个 torch.version 模块,可以获取更详细的版本信息。

import torch import sys # 获取 PyTorch 版本信息print("PyTorch Version: {}".format(torch.version.__version__))# 或直接使用 torch.__version__print("PyTorch CUDA Version: {}".format(torch.version.cuda))# 获取 CUDA 版本print("PyTorch cuDNN Version: {}".format(torch.backends.cudnn.version()))# 获取 cuDNN 版本# Python 版本print("Python Version: {}".format(sys.version))

特点

  • 可以获取 CUDA 和 cuDNN 的版本信息,对于调试 GPU 环境非常有用。
  • torch.version 提供了更细粒度的版本控制。

方法 4:使用 pkg_resources

pkg_resourcessetuptools 提供的一个工具,可以查询已安装包的版本信息。

import pkg_resources # 获取 PyTorch 版本try: pytorch_version = pkg_resources.get_distribution("torch").version print("PyTorch Version: {}".format(pytorch_version))except pkg_resources.DistributionNotFound:print("PyTorch is not installed.")# Python 版本仍通过 sys 模块import sys print("Python Version: {}".format(sys.version))

特点

  • 可以查询任何已安装包的版本,而不仅仅是 PyTorch。
  • 如果包未安装,会捕获 DistributionNotFound 异常。

方法 5:使用 platform 模块(补充 Python 信息)

虽然 sys.version 已经提供了 Python 版本信息,但 platform 模块可以提供更详细的系统信息。

import torch import platform print("PyTorch Version: {}".format(torch.__version__))print("Python Version: {}".format(platform.python_version()))print("Platform: {}".format(platform.platform()))

特点

  • platform.platform() 提供了操作系统的详细信息。
  • 适用于需要记录系统环境的场景。

方法 6:结合 subprocess 调用命令行

如果需要在 Python 脚本中调用外部命令行工具,可以使用 subprocess 模块。

import subprocess defget_python_version(): result = subprocess.run(["python","--version"], capture_output=True, text=True)return result.stdout.strip()defget_pytorch_version(): result = subprocess.run(["python","-c","import torch; print(torch.__version__)"], capture_output=True, text=True)return result.stdout.strip()print("Python Version: {}".format(get_python_version()))print("PyTorch Version: {}".format(get_pytorch_version()))

特点

  • 适用于需要从外部命令行获取信息的场景。
  • 可以灵活地调用其他命令行工具。

方法 7:使用 torch.utils.collect_env

PyTorch 提供了一个 torch.utils.collect_env 工具,可以收集详细的系统环境信息,包括 PyTorch、Python、CUDA、cuDNN 等。

import torch env_info = torch.utils.collect_env()print(env_info)

特点

  • 提供全面的环境信息,适合用于调试和问题报告。
  • 输出格式为字典,可以进一步处理。

总结

方法优点缺点
直接访问属性简单直接,无需额外依赖功能有限,仅能获取基本版本信息
PyTorch
通过命令行工具适用于脚本外部检查,无需编写 Python 代码需要手动执行命令
使用 torch.version提供更详细的版本信息(CUDA、cuDNN)仅适用于
使用 pkg_resources可以查询任何已安装包的版本需要额外依赖 setuptools
使用 platform 模块提供详细的系统信息功能与 sys 模块部分重叠
结合 subprocess灵活调用外部命令行工具实现复杂,性能可能较低
使用 torch.utils.collect_env提供全面的环境信息,适合调试输出格式复杂,需要进一步处理

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,