Whisper 模型本地化部署指南
一、模型版本与下载
Whisper 提供了多种规模版本,可根据显存和精度需求灵活选择。官方渠道主要包含 GitHub 仓库和 Hugging Face 模型库。
GitHub 仓库 https://github.com/openai/whisper 这里包含最新代码、预训练权重和文档。常见版本包括:
tiny.en/tinybase.en/basesmall.en/smallmedium.en/mediumlarge-v2(最新大模型)
Hugging Face 模型库
所有版本统一下载路径如下,只需替换 {version} 为具体型号即可:
https://huggingface.co/openai/whisper-{version}/tree/main
二、离线环境搭建
前置条件
硬件方面,推荐 NVIDIA GTX 1080 或更高规格显卡。显存占用上,小模型需 ≥ 2GB,大模型建议 ≥ 10GB。
基础环境准备(以 Linux 为例):
# 安装 Python 3.8+
sudo apt install python3.8 python3-pip
# 创建虚拟环境
python3 -m venv whisper-env
source whisper-env/bin/activate
离线依赖处理
内网环境无法直接 pip install,需要先在联网机器下载依赖包。
- 下载依赖(在联网设备操作):
pip download -r requirements.txt --platform manylinux2014_x86_64 \
--only-binary=:all: --python-version 3.8
将生成的 *.whl 文件复制到离线设备。
- 离线安装:
pip install --no-index --find-links=/path/to/wheels -r requirements.txt
三、模型加载与测试
手动下载 .pt 权重文件后,保存到默认缓存目录 ~/.cache/whisper/。验证安装是否成功,可以运行以下脚本:
import whisper
model = whisper.load_model("base")
result = model.transcribe("audio_sample.mp3")
print(result["text"])

