Whisper 模型本地化部署:全版本下载链接与离线环境搭建教程
Whisper 模型本地化部署指南
一、模型版本与下载
Whisper 提供多种规模版本,可通过以下官方渠道获取:
- GitHub 仓库
https://github.com/openai/whisper
包含最新代码、预训练权重和文档tiny.en/tinybase.en/basesmall.en/smallmedium.en/mediumlarge-v2(最新大模型)
Hugging Face 模型库
所有版本下载路径:
https://huggingface.co/openai/whisper-{version}/tree/main 替换 {version} 为具体型号:
二、离线环境搭建教程
准备工作
- 硬件要求:
- GPU 推荐:NVIDIA GTX 1080 或更高
- 显存要求:
- 小模型:≥ 2GB
- 大模型:≥ 10GB
基础环境:
# 安装 Python 3.8+ sudo apt install python3.8 python3-pip # 创建虚拟环境 python3 -m venv whisper-env source whisper-env/bin/activate 离线依赖安装
离线安装:
pip install --no-index --find-links=/path/to/wheels -r requirements.txt 下载依赖包(在联网设备操作):
pip download -r requirements.txt --platform manylinux2014_x86_64 \ --only-binary=:all: --python-version 3.8 将生成的 *.whl 文件复制到离线设备
模型部署
- 手动下载模型:
- 从 Hugging Face 下载
.pt权重文件 - 保存路径:
~/.cache/whisper/
- 从 Hugging Face 下载
验证安装:
import whisper model = whisper.load_model("base") result = model.transcribe("audio_sample.mp3") print(result["text"]) 三、关键配置说明
- 音频处理:
- 必需组件:
ffmpeg
- 必需组件:
内存优化:
# 启用 GPU 加速 model = whisper.load_model("large", device="cuda") # 低内存模式 options = whisper.DecodingOptions(fp16=False, beam_size=3) 离线安装:
# 下载静态编译版本 wget https://johnvansickle.com/ffmpeg/releases/ffmpeg-release-amd64-static.tar.xz tar xvf ffmpeg-release-amd64-static.tar.xz export PATH=$PATH:/path/to/ffmpeg 四、常见问题解决
- 依赖缺失错误:
- 解决方案:手动下载缺失
.whl文件补充
- 解决方案:手动下载缺失
长音频处理:
# 分段处理 result = model.transcribe("long_audio.wav", chunk_length=30) CUDA 不兼容:
# 检查 CUDA 版本 nvcc --version # 安装匹配的 PyTorch 离线包 提示:完整离线包(含依赖+模型)约需 15GB 存储空间,建议使用 rsync 进行设备间传输。