YOLO入门实操(三):手把手搭建YOLO环境(Windows/Linux双版本,避坑指南)

YOLO入门实操(三):手把手搭建YOLO环境(Windows/Linux双版本,避坑指南)
这个系列主要面向计算机视觉新手、深度学习入门者,不追求晦涩的公式堆砌,重点拆解YOLO的核心逻辑、实操技巧和工程落地场景,帮助大家从“听说过YOLO”到“能上手用YOLO”,逐步吃透这个目标检测领域的“明星算法”。
在这里插入图片描述


文章目录

在前几篇内容中,我们完整解析了YOLO系列版本演进,重点掌握了v5(入门)、v8(进阶)、v11(高精度)三大核心版本的核心逻辑与选型方法。
从本篇开始,我们进入实操环节——环境搭建是YOLO训练、推理、部署的第一步,也是新手最容易踩坑的环节,尤其不同系统、不同显卡的适配的问题,常常让新手无从下手。

本文将针对Windows 10/11和**Linux(Ubuntu 20.04/22.04,最主流版本)**双系统,手把手拆解YOLO环境搭建全流程,重点适配v5、v8、v11版本(三者环境通用,无需单独搭建),同步补充新手高频踩坑点、解决方案及验证方法,全程新手友好,无需复杂的编程基础,跟着步骤走就能搭建成功,为后续的模型训练、自定义数据集适配打下坚实基础。

核心前提:YOLO环境的核心依赖是「Python + PyTorch + Ultralytics框架」,其中PyTorch的安装是关键(需匹配显卡型号),Ultralytics框架是v5、v8、v11的统一运行载体,安装一次即可兼容三个版本。本文优先讲解「GPU版本环境」(训练速度快,适配大部分新手的独立显卡),同时补充CPU版本备选方案(无独立显卡的新手可参考)。

请添加图片描述

一、前期统一准备(双系统通用,必看)

无论Windows还是Linux,搭建前先完成以下准备,避免后续踩坑,重点确认显卡兼容性(核心!):

  • 显卡兼容性检查:优先使用NVIDIA独立显卡(AMD显卡对PyTorch的GPU支持不完善,新手不推荐),且显卡需支持CUDA(大部分2018年后的NVIDIA显卡都支持)。检查方法:Windows打开「设备管理器→显示适配器」,Linux终端输入lspci | grep -i nvidia,确认显示NVIDIA显卡型号。
  • 核心依赖版本约定(适配v5、v8、v11,稳定不踩坑):Python 3.8 - 3.10(不建议用3.11及以上,部分依赖不兼容)、PyTorch 2.0 - 2.4(需匹配CUDA版本)、Ultralytics 8.0+(最新版本即可,兼容v5/v8/v11)。
  • 避坑前置:全程不要用中文路径、不要用管理员权限随意运行终端/Anaconda(容易出现权限报错)、不要混合安装多个Python版本(会导致环境混乱)。

二、Windows 10/11 版本(新手首选,图形化操作,易上手)

步骤按「显卡驱动Anaconda(虚拟环境)→PythonPyTorchUltralytics验证环境」拆解,每一步附具体操作、命令及避坑指南,全程复制命令即可,无需手动修改。

步骤1:安装NVIDIA显卡驱动(GPU版本必装,CPU版本跳过)

显卡驱动是GPU加速的基础,版本需与后续安装的CUDA版本匹配,新手建议按以下步骤自动安装,避免版本不兼容:

  1. 打开NVIDIA官方驱动下载页面(无需注册,直接访问):https://www.nvidia.com/zh-cn/geforce/drivers/
  2. 自动检测显卡型号:页面点击「自动检测我的GPU」,下载并安装检测工具,工具会自动识别显卡型号,推荐适配的驱动版本(无需手动选择)。
  3. 安装驱动:双击下载的驱动文件,选择「精简安装」(新手首选,避免多余组件),安装完成后重启电脑(必须重启,否则驱动不生效)。

如果自己选择,可以打开任务管理器查看然后按照自己的配置选择一下,下面是我的配置情况:

在这里插入图片描述


在这里插入图片描述

避坑指南1:不要手动选择过高或过低的驱动版本,按官方推荐版本安装;若安装失败,先卸载电脑中已有的NVIDIA驱动(控制面板→程序卸载),重启后再重新安装。

避坑指南2:笔记本用户注意,部分笔记本有「核显+独显」双显卡,需确认独显是NVIDIA,且安装驱动时选择「针对笔记本的NVIDIA驱动」(检测工具会自动识别)。

步骤2:安装Anaconda,创建虚拟环境(核心,避免环境混乱)

Anaconda用于创建独立的Python虚拟环境,隔离不同项目的依赖,避免YOLO环境与其他Python项目冲突,新手必装:

  1. 下载Anaconda:访问官方下载页面(免费):https://www.anaconda.com/products/distribution#download-section
    也可以使用清华镜像:
    https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/
    选择Windows系统、Python 3.9版本(适配性最好),下载64位安装包。
  2. 安装Anaconda:
    • 双击安装包,点击「Next」,勾选「I Agree」,选择「Just Me」(仅当前用户,避免权限问题)。
    • 关键步骤:取消勾选「Add Anaconda3 to my PATH environment variable」(手动配置环境变量更稳定),勾选「Register Anaconda3 as my default Python 3.13」,点击「Install」。

安装路径建议修改为「D:\Anaconda3」(不要装在C盘,避免占用系统空间,路径不要有中文、空格)。

在这里插入图片描述
在这里插入图片描述
  • 安装完成后,点击「Finish」,无需勾选「Launch Anaconda Navigator」。
  1. 配置环境变量(必做,否则终端无法识别conda命令):
    • 点击「新建」,依次添加以下3个路径(替换为你的Anaconda安装路径,若按上面建议安装,直接复制即可):

打开「此电脑→属性→高级系统设置→环境变量→用户变量→Path」,点击「编辑」。

在这里插入图片描述
 D:\Anaconda3 D:\Anaconda3\Scripts D:\Anaconda3\Library\bin 
在这里插入图片描述
  • 点击「确定」保存,关闭所有窗口,重启电脑(环境变量生效)。
    • 输入命令创建虚拟环境(环境名建议叫yolo_v11,易记,Python版本指定3.9):

激活虚拟环境(后续所有操作都要在这个环境中进行)
conda activate yolo_v11

在这里插入图片描述

查看系统所有虚拟环境:
conda env list

在这里插入图片描述

打开「Anaconda Prompt」(开始菜单搜索,管理员身份运行会报错,直接打开即可)。

在这里插入图片描述

创建并激活YOLO虚拟环境:conda create -n yolo_v11 python=3.9 -y
(-y表示自动确认,无需手动输入y)

在这里插入图片描述

激活成功后,终端前面会显示「(yolo_v11)」,表示当前在YOLO专属环境中。

避坑指南3:环境变量配置错误,会导致「conda不是内部或外部命令」,若出现此报错,重新检查路径是否正确、是否重启电脑;若创建环境失败,检查网络,可切换conda镜像源(下文有补充)。

步骤3:安装PyTorch(GPU/CPU版本二选一,重点!)

PyTorch是YOLO运行的核心框架,GPU版本比CPU版本训练速度快10倍以上,优先安装GPU版本;若无NVIDIA显卡,再安装CPU版本。

选项1:GPU版本(推荐,有NVIDIA显卡必装)

  1. 查看适配的CUDA版本:打开Anaconda Prompt(已激活yolo_v11环境),输入命令:

nvidia-smi
输出结果中,「CUDA Version」后面的版本就是你的显卡支持的最高CUDA版本(例如12.2),我们安装的PyTorch CUDA版本需≤这个版本(新手建议安装11.8版本,稳定兼容v5/v8/v11)。

在这里插入图片描述

安装PyTorch 2.5.0(适配CUDA 11.8,稳定不踩坑):复制以下命令,在终端粘贴运行(全程联网,耐心等待,约5-10分钟):
下面是pytorch的官网 : https://pytorch.org/

在这里插入图片描述

pip install torch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 --index-url https://download.pytorch.org/whl/cu118

在这里插入图片描述

选项2:CPU版本(无NVIDIA显卡,新手备选)

直接复制以下命令运行,无需检查CUDA,安装速度更快:

pip install torch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 --index-url https://download.pytorch.org/whl/cpu

避坑指南4:不要用conda安装PyTorch(容易出现CUDA不兼容问题),优先用pip安装;若安装速度极慢,切换国内PyPI镜像源(下文补充);安装完成后,务必验证是否成功(步骤见下文)。

避坑指南5:若出现「torch.cuda.is_available()返回False」(GPU版本验证失败),大概率是显卡驱动版本过低、CUDA版本不匹配,重新安装对应版本的显卡驱动即可。

步骤4:安装Ultralytics框架(适配v5、v8、v11,一键安装)

Ultralytics是v5、v8、v11的统一运行框架,安装一次即可兼容三个版本,无需分别安装。
可以在Gitee上面下载到源码:
https://gitee.com/monkeycc/ultralytics/tree/v8.3.163/

在这里插入图片描述


解压到一个没有中文路径的地方即可。

步骤5:安装额外依赖,验证环境(关键,确保能正常运行YOLO)

  1. 安装额外依赖(适配数据集处理、可视化等后续操作):
    在Anaconda Prompt 中进入 Ultralitics 的文件夹:
    pushd F:\ZEEKLOG\DeepLearning\ultralytics-8.3.163

下载其它包:
pip install -e .

在这里插入图片描述
  1. 验证PyTorch是否安装成功(GPU版本重点验证):

在终端输入「python」,进入Python交互环境,依次输入以下2行命令:

import torch
print(torch.cuda.is_available())

在这里插入图片描述
  • 若输出「True」,表示GPU版本安装成功;
  • 若输出「False」,GPU版本失败,检查显卡驱动和CUDA版本;
  • 若未报错,仅输出「False」,说明是CPU版本,正常。
    输入「exit()」退出Python交互环境。
  1. 验证Ultralytics框架是否安装成功(适配v5、v8、v11):

在终端输入命令(运行v8预训练模型,测试一张默认图片,无需手动下载模型):

yolo predict model=yolov8s.pt source='https://ultralytics.com/images/bus.jpg'
若能正常下载模型、输出检测结果(显示检测到的bus、person等目标),表示环境搭建成功。

在这里插入图片描述
请添加图片描述

Windows版本高频避坑汇总(新手必看)

  • 坑1:conda命令无法识别 → 重新配置环境变量,确保3个路径正确,重启电脑;
  • 坑2:PyTorch安装超时 → 切换清华镜像源,或用手机热点联网(部分校园网、公司网限制);
  • 坑3:GPU版本验证失败(False) → 显卡驱动版本过低,重新安装官方推荐的驱动;
  • 坑4:运行yolo命令报错「No module named ‘ultralytics’」 → 确认在yolo_v11环境中,重新安装ultralytics;
  • 坑5:中文路径报错 → 所有安装路径、后续的数据集路径,都不要有中文、空格。

三、Linux 版本(Ubuntu 20.04/22.04,服务器/台式机首选)

Linux版本操作以终端命令为主,比Windows更稳定,适合后续部署和批量训练,步骤与Windows类似,重点适配Ubuntu系统(最主流的Linux发行版),同样适配v5、v8、v11版本。

前置说明:Ubuntu系统建议安装纯净版(不要装桌面版多余组件),服务器用户可通过SSH连接终端操作;全程在普通用户权限下操作,不要用root用户(避免权限混乱)。

步骤1:更新系统,安装基础依赖

打开终端(快捷键Ctrl+Alt+T),依次输入以下命令,更新系统并安装基础依赖:

sudo apt update && sudo apt upgrade -y
sudo apt install gcc g++ make cmake git -y

步骤2:安装NVIDIA显卡驱动(GPU版本必装,CPU版本跳过)

  1. 添加NVIDIA驱动源:
    sudo add-apt-repository ppa:graphics-drivers/ppa
    sudo apt update
  2. 查看适配的驱动版本:
    ubuntu-drivers devices
    输出结果中,「recommended」后面的就是推荐的驱动版本(例如nvidia-driver-535)。
  3. 安装驱动:
    sudo apt install nvidia-driver-535 -y(替换为推荐的版本号)
  4. 重启电脑,验证驱动是否安装成功:
    nvidia-smi
    若能显示显卡信息和CUDA Version,说明驱动安装成功。

步骤3:安装Anaconda,创建虚拟环境

  1. 安装Anaconda:
    bash Anaconda3-2023.07-2-Linux-x86_64.sh

下载Anaconda安装包(终端命令下载,无需手动访问网页):
wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh

在这里插入图片描述
在这里插入图片描述
  • 按Enter继续,按空格键查看协议,输入「yes」同意协议。
  • 安装路径默认即可(/home/用户名/anaconda3),直接按Enter;若需修改,输入路径后按Enter。
  • 最后输入「yes」,同意初始化Anaconda。
在这里插入图片描述
  1. 重启终端(让Anaconda生效),或输入以下命令生效:
    source ~/.bashrc

创建并激活YOLO虚拟环境(与Windows一致,环境名yolo_v11,Python 3.9):
conda create -n yolo_v11 python=3.9 -y
conda activate yolo_v11

激活成功后,终端前面显示「(yolo_v11)」。

在这里插入图片描述
在这里插入图片描述

步骤4:安装PyTorch(与Windows完全一致,二选一)

选项1:GPU版本(推荐)

pip install torch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 --index-url https://download.pytorch.org/whl/cu118

选项2:CPU版本

pip install torch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 --index-url https://download.pytorch.org/whl/cpu

步骤5:安装Ultralytics框架及额外依赖

与Windows步骤一致,终端输入以下命令:

pip install ultralytics opencv-python pillow matplotlib numpy pandas -i https://pypi.tuna.tsinghua.edu.cn/simple

步骤6:验证环境(与Windows一致)

  1. 验证PyTorch:
    python -c "import torch; print(torch.cuda.is_available())"

输出「True」表示GPU版本成功,「False」表示CPU版本正常。

在这里插入图片描述
  1. 验证Ultralytics:
    yolo predict model=yolov8s.pt source='https://ultralytics.com/images/bus.jpg'

正常输出检测结果,即为环境搭建成功。

Linux版本高频避坑汇总(新手必看)

  • 坑1:sudo apt update报错 → 更换Ubuntu镜像源(阿里、清华源),新手可参考ZEEKLOG Ubuntu镜像源配置教程;
  • 坑2:显卡驱动安装失败 → 卸载原有驱动(sudo apt purge nvidia-*),重新安装推荐版本;
  • 坑3:Anaconda安装后不生效 → 运行source ~/.bashrc,或重启终端;
  • 坑4:pip安装权限不足 → 不要用sudo pip install(会污染系统环境),在虚拟环境中直接安装即可;
  • 坑5:终端中文乱码 → 配置系统中文编码,或直接用英文路径、英文命令。
请添加图片描述

四、双系统通用补充

1. 镜像源切换(解决安装速度慢、超时问题)

若pip安装依赖时速度极慢,可配置清华PyPI镜像源(永久生效),终端输入以下命令:

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

2. 环境异常解决方案

若后续使用中出现环境报错(如依赖冲突、模块缺失),无需重新搭建,直接删除虚拟环境,重新创建即可:

conda deactivate(退出虚拟环境)

conda remove -n yolo_v11--all -y(删除虚拟环境)

然后重新执行「创建虚拟环境→安装依赖」的步骤,10分钟即可恢复。

3. 后续实操衔接

本文搭建的环境,可直接用于v5、v8、v11的训练、推理和部署,所有操作都在本次搭建的yolo_v11虚拟环境中进行。

尾声

至此,Windows和Linux双版本的YOLO环境搭建已全部完成,重点适配v5、v8、v11三大核心版本,全程手把手拆解,补充了新手高频踩坑点和解决方案,确保新手能一次搭建成功。环境搭建是YOLO实操的基础,只要环境没问题,后续的模型训练、自定义适配都会非常顺利。

下一篇内容,我们将聚焦 YOLO实操——用YOLO预训练模型快速实现目标检测,感兴趣的同学可以持续关注。如果搭建过程中遇到其他问题,欢迎在评论区留言,我会及时回复解答~

感谢大伙观看,别忘了三连支持一下

大伙也可以关注一下我的其它专栏,同样精彩喔~

大伙也可以添加下面的微信来交流

Read more

【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk