【PyTorch】2024保姆级安装教程-Python-(CPU+GPU详细完整版)-

【PyTorch】2024保姆级安装教程-Python-(CPU+GPU详细完整版)-

一、准备工作

  1. pytorch需要python3.6及以上的python版本
  2. 我是利用Anaconda来管理我的python。可自行安装Anaconda。
  3. Anaconda官网 Free Download | Anaconda

具体Anaconda安装教程可参考

https://blog.ZEEKLOG.net/weixin_43412762/article/details/129599741?fromshare=blogdetail&sharetype=blogdetail&sharerId=129599741&sharerefer=PC&sharesource=2201_75436278&sharefrom=from_link

二、pytorch介绍

安装 PyTorch 时,可以选择在 CPU 或 GPU 上运行,取决于你的硬件支持和需求。

  • CPU版本安装:CPU 版本适用于没有 GPU 或不需要使用 GPU 进行深度学习的情况。安装过程相对简单,因为没有依赖 GPU 驱动和 CUDA 的要求。
  • GPU版本安装:如果你的计算机上有 NVIDIA GPU,并且你希望加速深度学习计算,可以安装 GPU 版本的 PyTorch。GPU 版本依赖于 CUDA 和 cuDNN。

三、CPU版本pytorch安装

为了更好的管理不同项目的Python项目,通常建议创建一个虚拟环境。可以隔离不同项目的依赖项,避免项目之间的冲突。

1、创建虚拟环境

安装好Anaconda后会有这些程序


输入以下指令可查看当前的虚拟环境

conda env list 
在这里插入图片描述


利用 conda create 指令创建新的虚拟环境

conda create –n 虚拟环境名字(自己设置) python=版本 

演示如下

在这里插入图片描述
在这里插入图片描述


输入y,等待安装

2、路径处理

如果安装后的虚拟环境没在 annconda3\enxs 的目录下,通常是以下几个原因导致的(以我的目录为例):

  • 没有写入权限:如果当前用户对 C:\ProgramData\anaconda3\envs 目录没有写入权限,Conda 会选择使用用户本地目(C:\Users\Xzwzh\.conda\envs)来存放环境。
  • 用户环境配置:Conda 的配置文件 .condarc 中可以设置 envs_dirs,用于指定环境的默认存放位置。如果设置了用户本地目录,那么新建的环境会存放在那里。
  • 环境隔离:在某些情况下,用户可能会故意选择将环境安装在用户目录下,以便不同用户使用各自的环境,避免对全局安装目录的修改。

如果希望将环境放在anaconda3\envs 目录下,可以在创建环境时显示指定 --prefix 参数。

例如:

以管理员权限运行命令提示符,注意,下面的命令要以管理员身份运行,否则报错

conda create --prefix C:\ProgramData\anaconda3\envs\pytorch_env python=3.8 

也可以修改 .condarc 文件,将 envs_dirs 添加或修改为默认全局路径:

envs_dirs: - C:\ProgramData\anaconda3\envs 

然后重新创建环境即可。

3、删除虚拟环境

通过环境名称删除

conda remove --name 环境名称 --all 

通过环境路径删除

conda remove --prefix 路径 --all 

4、配置镜像源

根据上述操作,以如下的环境列表为例(虚拟环境已经创建好):

在这里插入图片描述

由于安装指令都是从国外的通道下载,下载速度会非常慢。所以我们可以用国内的镜像地址下载pytorch

conda config --show 

输入上述指令可以查看我们的通道地址

在这里插入图片描述

我的环境中有三个清华的镜像源。如果是之前没用过镜像源,这里只会显示dafaults。

在这里插入图片描述
镜像名镜像地址
清华源镜像https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch
阿里巴巴镜像http://mirrors.aliyun.com/anaconda/pkgs/main
淘宝镜像源https://registry.npmmirror.com/

这里的淘宝镜像源不推荐,由于淘宝npm镜像的旧域名(如npm.taobao.org和registry.npm.taobao.org)已经停止服务,并且HTTPS证书已经过期,需要使用淘宝最新的镜像源。列表给出的是(2024年9月) 淘宝的最新镜像的地址。

conda config --add channels 通道地址 

输入以上命令可以添加通道地址,添加后输入以下地址也可以查看通道地址(验证是否加上通道)

conda config --get 
在这里插入图片描述

如果想删除通道,可执行下面代码

conda config --remove channels 通道地址 

5、安装pytorch

1、首先激活环境变量

conda activate 创建的虚拟环境 
在这里插入图片描述

2、进入pytorch官网,找到安装指令

点击Get started 进行如下配置

在这里插入图片描述

找到安装代码

conda install pytorch torchvision torchaudio cpuonly -c pytorch //注意,这种就是直接从国外下载了 

用镜像源安装

conda install pytorch torchvision torchaudio cpuonly –c 镜像地址 
在这里插入图片描述
在这里插入图片描述

直接复制自己对应的镜像源即可

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

输入y即可

报错处理:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

如果出现如上报错,使用管理员身份进行上述步骤即可解决。

出现下图所示,就是安装完成。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

6、验证pytorch是否安装成功

  • 在安装pytorch的虚拟环境下输入conda list 查看是否有pytorch
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

在虚拟环境下运行python并导入torch

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
print(torch.__version__) 
  • 输入上述命令,显示PyTorch 的版本号,说明 PyTorch 已经成功安装。
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

四、GPU版本pytorch安装

首先和CPU版本安装一样,创建一个虚拟环境,前面提到,这里不在重复。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

1、查看自己电脑的GPU

在任务管理器中可查看GPU

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

如果没安装显卡驱动,先安装最新的显卡驱动,到官网自行安装即可。

查看驱动版本。win + r ,输入cmd 进入终端,输入指令:

nvidia-smi 
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我的 CUDA 驱动版本是 12.1,这表示驱动所支持的最大 CUDA 运行时 API 版本是 12.1。因此,如果要安装 CUDA 运行时版本,就需要确保 CUDA 驱动版本 >= CUDA 运行时版本,也就是说可以安装 12.1 及更早的版本。

2、安装pytorch

直接进入创建的虚拟环境中输入命令,安装成功:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 
在这里插入图片描述

3、验证是否安装成功

指令:

import torch print(torch.__version__) print(torch.cuda.is_available()) 
  • 可以直接进入终端python运行指令检验
在这里插入图片描述


出现以上界面说明安装成功

  • 也可以直接在pycharm编辑器中验证。
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

使用GPU环境,最后输出cu121True,说明安装成功

五、补充

1、卸载当前的PyTorch版本

进入所在的虚拟环境,输入以下指令即可。

pip uninstall torch torchvision torchaudio 
外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

2、失败的安装过程

可以利用condapip进行安装,但是我都没安装成功,这里就不在过多介绍,可能是国内的镜像源很多都不能GPU版本的安装。可以参考。严格按照用pip安装应该能成功,只不过我当时安装指令错了。

https://blog.ZEEKLOG.net/weixin_44752340/article/details/130542629?fromshare=blogdetail&sharetype=blogdetail&sharerId=130542629&sharerefer=PC&sharesource=2201_75436278&sharefrom=from_link

最后我直接下载轮子文件(.whl)进行安装。

https://download.pytorch.org/whl/torch_stable.html 

上面这个是pytorch轮子文件的下载链接。根据自己的需求下载。

分别下载相应的torchtorchvision

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

我下载的是2.2.2版本torchtorchvision,对应的CUDA版本是11.8,python版本是3.8,正如绿色、蓝色框所示。注意后面对应的 win 和 linux。下载过程较长。

下载完后,将两个文件放在虚拟环境的目录下。然后运行:

pip install 轮子文件名(torch-2.2.2+cu118-cp38-cp38-win_amd64.whl) 

但是我也安装失败了,后来我又安装的12.1的CUDA,也不行

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传


应该是版本不兼容问题。

Read more

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案

LazyLLM 多 Agent 应用全流程实践:从源码部署到可视化 Web 调试的低代码方案 前言:为什么选择 LazyLLM 构建多 Agent 大模型应用? LazyLLM 作为低代码构建多 Agent 大模型应用的开发工具,可大幅降低大模型应用的开发与部署门槛。本文聚焦其在豆包模型的落地实践,将从源码部署豆包文本模型的完整配置步骤入手,延伸至官方 WebModule 启动可视化 Web 界面的实操流程,并配套精准性、简洁度等多维度的部署测试说明,为开发者提供可直接对照的实操指南,助力高效完成豆包模型在 LazyLLM 框架下的部署与验证。 LazyLLM 整体架构解析:三层联动的多 Agent 运行体系 LazyLLM 的架构分为三层级递进结构,各层级分工明确且联动协同,实现从应用开发到落地执行的全流程覆盖:上层(LazyPlatform AI 大模型应用开发平台):核心含应用编排平台以可视化编排、发布、回流、调优的闭环完成应用构建迭代与平台管理模块通过租户、权限管理支撑多用户运维,是开发者的高效开发管理入口中层(

2026实测|DeepSeek-R1-Distill-Qwen-1.5B部署全攻略(vLLM+Open WebUI,0.8GB显存就能跑,告别服务器瓶颈)

2026实测|DeepSeek-R1-Distill-Qwen-1.5B部署全攻略(vLLM+Open WebUI,0.8GB显存就能跑,告别服务器瓶颈)

前言:2026年,轻量级大模型部署已成为开发者核心需求——专业GPU服务器成本高昂、边缘设备算力有限,多数1.5B级模型仍需3GB以上显存,让个人开发者与中小企业望而却步。而DeepSeek-R1-Distill-Qwen-1.5B(下称“DQ-1.5B”)的出现打破僵局,通过知识蒸馏技术在1.5B参数体量下实现接近7B级模型的推理能力,配合vLLM推理加速与Open WebUI可视化交互,实测0.8GB显存即可稳定运行,无需高端服务器,个人PC、边缘设备均可轻松落地。本文结合2026年最新实测数据,从核心原理、分步实操、实测验证、应用场景、落地案例到问题排查,打造零冗余、高可用的部署全攻略,兼顾专业性与实用性,助力开发者快速上手,轻松实现轻量级大模型本地化部署。 一、核心技术解析 部署前先理清三大核心组件的核心逻辑,无需深入底层源码,聚焦“为什么能用、为什么高效”,贴合开发者落地需求。 1.1 模型核心:DeepSeek-R1-Distill-Qwen-1.5B 优势解析 DQ-1.5B是DeepSeek团队基于Qwen-1.

DeepSeek-OCR-WEBUI零基础教程:云端GPU免配置,1小时1块快速上手

DeepSeek-OCR-WEBUI零基础教程:云端GPU免配置,1小时1块快速上手 你是不是也遇到过这种情况?在GitHub上看到一个超酷的AI项目——比如最近很火的DeepSeek-OCR,想拿来做个文档识别实验,结果发现: * 宿舍笔记本没有独立显卡,根本跑不动大模型; * 教程里一堆CUDA、Docker、环境依赖要装,光看名字就劝退; * 想借实验室的GPU服务器?排队两周起,等得起但项目等不起; * 最关键的是:我只是想快速验证一下效果,又不是要搞科研级部署。 别急!今天这篇教程就是为你量身打造的。我会带你用一种“零代码+免配置+云端GPU加速”的方式,在不到1小时内把 DeepSeek-OCR 跑起来,而且成本只要一块钱左右! 我们不讲复杂的原理,也不让你手动编译源码或配环境。你要做的,只是点几下鼠标,然后就能通过网页上传图片、一键识别文字,就像用百度识图一样简单。 学完你能做到: * 在云端直接部署 DeepSeek-OCR-WebUI * 无需任何本地算力,宿舍老本也能流畅操作 * 通过浏览器上传文档/截图/PDF,自动提取高精度文本 *

Linux网络 | 理解Web路径 以及 实现一个简单的helloworld网页

Linux网络 | 理解Web路径 以及 实现一个简单的helloworld网页

前言:本节内容承接上节课的http相关的概念, 主要是实现一个简单的接收http协议请求的服务。这个程序对于我们理解后面的http协议的格式,报头以及网络上的资源的理解, 以及本节web路径等等都有着重要作用。 可以说我们就用代码来理解这些东西。 那么废话不多说, 现在开始我们的学习吧。         ps:本节内容建议先看一下上一篇文章http的相关概念哦:linux网络 | 深度学习http的相关概念-ZEEKLOG博客 目录  准备文件  makefile HttpServer.hpp 类内成员 封装sockfd start  ThreadRun  全部代码 运行结果 响应书写 Web路径  准备文件         首先准备文件: 这里面Httpserver.cc用来运行接收http请求的服务。 HttpServer.hpp用来定义http请求。Log.hpp就是一个打印日志的小组件, Socket.hpp同样是套接字的组件。 到使用直接调用相关接口即可。(Log.hpp和Socket.hpp如何实现不讲解, 如果想要知道