1.2 Whisper的安装与配置 | 《Whisper语音识别实战专栏》

引言

在前一篇文章中,我们了解了Whisper的基本概念、发展背景和主要特点。现在,我们将介绍Whisper的安装与配置方法,帮助您快速上手使用Whisper。

Whisper的安装相对简单,主要包括Python环境配置、Whisper库安装和FFmpeg配置三个步骤。在本文章中,我们将详细介绍每个步骤的具体操作方法,并提供常见问题的解决方案。

系统要求

在安装Whisper之前,您需要确保您的系统满足以下要求:

  • 操作系统:Windows、macOS或Linux
  • Python版本:3.8-3.11
  • PyTorch版本:支持最新版本的PyTorch
  • 硬件要求
    • CPU:支持x86_64架构的处理器
    • GPU(可选):支持CUDA的NVIDIA GPU(用于加速模型推理)
    • 内存:至少4GB RAM,推荐8GB以上

安装步骤

1. 配置Python环境

首先,您需要安装Python环境。如果您已经安装了Python 3.8-3.11,可以跳过这一步。

1.1 下载Python

访问Python官方网站,下载适合您操作系统的Python安装包。推荐下载Python 3.10或3.11版本,因为它们与Whisper的兼容性较好。

1.2 安装Python
  • Windows:运行下载的安装程序,勾选"Add Python to PATH"选项,然后点击"Install Now"。
  • macOS:运行下载的.pkg安装包,按照提示完成安装。

Linux:使用系统包管理器安装Python,例如:

# Ubuntu/Debiansudoapt update &&sudoaptinstall python3 python3-pip # CentOS/RHELsudo yum install python3 python3-pip 
1.3 验证Python安装

安装完成后,打开命令行工具,输入以下命令验证Python是否安装成功:

python --version pip --version 

如果输出Python和pip的版本信息,则说明安装成功。

2. 安装PyTorch

Whisper依赖于PyTorch框架,因此您需要安装PyTorch。访问PyTorch官方网站,根据您的操作系统和硬件配置选择合适的安装命令。

2.1 安装CPU版本的PyTorch

如果您没有GPU,或者不想使用GPU加速,可以安装CPU版本的PyTorch:

pip3 install torch torchvision torchaudio 
2.2 安装GPU版本的PyTorch

如果您有支持CUDA的NVIDIA GPU,可以安装GPU版本的PyTorch以获得更好的性能:

# CUDA 12.1 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 # CUDA 11.8 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 
2.3 验证PyTorch安装

安装完成后,打开Python交互式环境,输入以下命令验证PyTorch是否安装成功:

import torch print(torch.__version__)# 检查是否支持CUDAprint(torch.cuda.is_available())

如果输出PyTorch的版本信息,并且torch.cuda.is_available()返回True(如果使用GPU版本),则说明安装成功。

3. 安装Whisper

现在,您可以安装Whisper库了。Whisper提供了多种安装方式,您可以选择其中一种适合您的方式。

3.1 使用pip安装(推荐)

最简单的安装方式是使用pip安装Whisper的最新稳定版本:

pip install -U openai-whisper 
3.2 从GitHub仓库安装

如果您想安装最新的开发版本,可以从GitHub仓库直接安装:

pip install git+https://github.com/openai/whisper.git 
3.3 更新Whisper

如果您已经安装了Whisper,想要更新到最新版本,可以使用以下命令:

pip install --upgrade --no-deps --force-reinstall git+https://github.com/openai/whisper.git 

4. 配置FFmpeg

Whisper需要使用FFmpeg来处理音频文件,因此您需要安装FFmpeg并将其添加到系统PATH中。

4.1 下载FFmpeg

访问FFmpeg官方网站,下载适合您操作系统的FFmpeg安装包。

4.2 安装FFmpeg
  • Windows
    1. 下载FFmpeg的Windows构建版本(推荐从gyan.dev下载)
    2. 解压下载的zip文件到一个目录,例如C:\ffmpeg
    3. 将FFmpeg的bin目录(例如C:\ffmpeg\bin)添加到系统PATH环境变量中

Linux
使用系统包管理器安装FFmpeg:

# Ubuntu/Debiansudoapt update &&sudoaptinstall ffmpeg # CentOS/RHELsudo yum install ffmpeg # Arch Linuxsudo pacman -S ffmpeg 

macOS
使用Homebrew安装FFmpeg:

brew install ffmpeg 
4.3 验证FFmpeg安装

安装完成后,打开命令行工具,输入以下命令验证FFmpeg是否安装成功:

ffmpeg -version 

如果输出FFmpeg的版本信息,则说明安装成功。

5. 安装其他依赖(可选)

在某些情况下,您可能需要安装额外的依赖项:

5.1 Rust(可选)

如果您在安装Whisper时遇到关于tiktoken的错误,可能需要安装Rust开发环境:

  1. 访问Rust官方网站,按照提示安装Rust
  2. 重新安装Whisper

安装完成后,将Rust添加到系统PATH中:

# Linux/macOSexportPATH="$HOME/.cargo/bin:$PATH"
5.2 setuptools_rust(可选)

如果您遇到No module named 'setuptools_rust'错误,可以安装setuptools_rust

pip install setuptools-rust 

验证安装

安装完成后,您可以使用以下方法验证Whisper是否安装成功:

1. 使用命令行工具

打开命令行工具,输入以下命令:

whisper --help 

如果输出Whisper的帮助信息,则说明命令行工具安装成功。

2. 使用Python API

创建一个Python脚本,例如test_whisper.py,内容如下:

import whisper # 加载tiny模型try: model = whisper.load_model("tiny")print("模型加载成功!")# 查看可用模型print("可用模型:", whisper.available_models())print("Whisper安装成功!")except Exception as e:print(f"安装失败:{e}")

运行脚本:

python test_whisper.py 

如果输出"Whisper安装成功!",则说明Python API安装成功。

常见问题解决方案

1. 安装Whisper时遇到权限问题

解决方案:使用管理员权限运行命令行工具,或者使用--user选项安装:

pip install -U openai-whisper --user 

2. 模型下载失败

解决方案

  • 检查网络连接是否正常
  • 使用代理服务器下载
  • 手动下载模型文件并放置到默认缓存目录(~/.cache/whisper

3. FFmpeg未找到

解决方案

  • 检查FFmpeg是否正确安装
  • 确保FFmpeg的bin目录已添加到系统PATH中
  • 重新启动命令行工具或计算机

4. CUDA相关错误

解决方案

  • 确保安装了与PyTorch版本匹配的CUDA驱动
  • 检查GPU是否支持CUDA
  • 尝试使用CPU版本的PyTorch

5. Python版本不兼容

解决方案

  • 安装Python 3.8-3.11版本
  • 使用虚拟环境隔离不同版本的Python

最佳实践

1. 使用虚拟环境

为了避免依赖冲突,推荐使用虚拟环境安装Whisper:

# 创建虚拟环境 python -m venv whisper-env # 激活虚拟环境# Windows whisper-env\Scripts\activate # Linux/macOSsource whisper-env/bin/activate # 在虚拟环境中安装Whisper pip install -U openai-whisper 

2. 选择合适的模型

根据您的硬件配置和需求选择合适的模型:

  • 如果您的设备内存较小(<4GB),推荐使用tinybase模型
  • 如果您需要更好的识别准确率,推荐使用mediumlarge模型
  • 如果您需要更快的转录速度,推荐使用turbo模型

3. 定期更新Whisper

Whisper的开发者会定期更新模型和代码,修复bug并添加新功能。建议您定期更新Whisper:

pip install -U openai-whisper 

总结

在本文章中,我们详细介绍了Whisper的安装与配置方法,包括:

  1. 配置Python环境
  2. 安装PyTorch
  3. 安装Whisper库
  4. 配置FFmpeg
  5. 安装其他依赖(可选)
  6. 验证安装

我们还提供了常见问题的解决方案和最佳实践建议,帮助您顺利安装和使用Whisper。

在下一篇文章中,我们将介绍Whisper的基本使用方法,包括命令行工具和Python API的使用,帮助您快速上手Whisper语音识别。


思考问题

  1. 为什么推荐使用虚拟环境安装Whisper?
  2. 如何根据自己的硬件配置选择合适的Whisper模型?
  3. 如果遇到模型下载失败,应该如何解决?

扩展阅读

Read more

Ubuntu/Debian VPS 上 Apache Web 服务器的完整配置教程

Apache 是互联网上最流行的 Web 服务器之一,用于托管超过半数活跃网站。尽管市面上存在许多可用的 Web 服务器,但由于 Apache 的普遍性,了解其工作原理仍然具有重要意义。 本文将分享 Apache 的通用配置文件及其可配置选项。文中将以 Ubuntu/Debian 系统的 Apache 文件布局为例进行说明,这种布局方式与其他 Linux 发行版的配置层级结构有所不同。 版本兼容性 说明 :本教程已在 Ubuntu 22.04 LTS、Ubuntu 24.04 LTS、Ubuntu 25.04 以及 Debian 11、Debian 12 系统上通过验证测试。所有展示的命令和配置均兼容上述版本,且 Apache 配置结构与命令(如 a2ensite、

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

前端存储三剑客:localStorage、sessionStorage、cookie 超详细对比

在前端开发中,数据本地存储是提升用户体验、优化性能、实现持久化状态的核心技术。我们最常用的就是 localStorage、sessionStorage 和 cookie 这三种方案,但很多开发者容易混淆它们的用法、存储特性和适用场景。 这篇博客就用最清晰、最实用的方式,一次性讲透三者的区别、用法和最佳实践。 一、先搞懂核心概念 * cookie:最早的客户端存储方案,会随 HTTP 请求自动发送到服务器,主要用于身份验证、会话保持。 * localStorage:HTML5 新增的本地存储,持久化存储,手动清除才会消失,不参与网络请求。 * sessionStorage:HTML5 新增的会话存储,页面会话期间有效,关闭标签页 / 浏览器就清空。 二、核心区别一张表看懂 表格 特性localStoragesessionStoragecookie生命周期永久有效,手动清除仅当前会话(关闭标签 / 浏览器失效)可设置过期时间,默认会话级存储容量约 5MB约 5MB很小,仅 4KB与服务端通信不参与不参与自动携带在

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap

我用 Vibe Code 做出了漂亮的 Web 应用,但 AI 依然无法为 Google Search 自动生成一个简单的 Sitemap 在最近一段时间里,我看到很多开发者和创业者开始用 AI 工具做网站、Web 应用这些东西,比如所谓的 vibe coding 平台:快速生成页面、美观的前端、自动部署等等。乍一看体验很棒,但当你开始关注 SEO 和搜索引擎索引时,这一切就变得很不那么简单了。 我自己做过很多网站的 SEO,这本应该是个“十分钟搞定”的事儿 —— “生成 sitemap.xml,提交到 Google Search Console,搞定。” 但是在实际操作中,问题远比想象复杂。 项目背景 我做的第一个项目是一个在线餐厅目录:收集了所有提供食物过敏菜单的餐厅信息,供过敏患者快速查询。

Qwen3-1.7B支持流式响应?实战验证与前端集成教程

Qwen3-1.7B支持流式响应?实战验证与前端集成教程 最近在折腾大模型应用开发,特别是想给前端加个实时聊天的效果,就一直在找支持流式输出的轻量级模型。Qwen3系列开源后,我第一时间注意到了1.7B这个版本——参数小,部署快,但官方文档里关于流式响应的说明不太详细。 所以,我决定自己动手验证一下:Qwen3-1.7B到底支不支持流式响应?如果支持,怎么在前端项目里用起来?这篇文章就是我的实战记录,从环境搭建、接口测试到前端集成,一步步带你走通整个流程。 1. 环境准备与快速启动 要在本地或者云端快速体验Qwen3-1.7B,最省事的方法就是直接用现成的Docker镜像。这里我以ZEEKLOG星图平台的镜像为例,带你快速启动一个可用的环境。 1.1 启动Jupyter Notebook环境 1. 找到Qwen3-1.7B的镜像并启动。平台通常会提供一个预装好所有依赖的容器。 2. 容器启动后,直接打开提供的Jupyter Notebook链接。你会看到一个熟悉的网页界面,里面已经配置好了Python环境和必要的库。 这样,我们就不用操心安装PyTorch、Tran