Whisper 模型国内镜像源汇总与快速下载指南
如果你在用 OpenAI 的 Whisper 做语音识别,可能会发现从 Hugging Face 拉取模型特别慢。这在国内网络环境下很常见,主要是跨国链路的问题。用国内镜像源能快不少,有时候甚至能到 10 倍速。下面整理了几个靠谱的源,还有具体的下载姿势。
为什么需要镜像源?
Whisper 官方托管在 Hugging Face Hub,直接连国外服务器容易超时或断流。国内镜像站做了缓存和加速,支持 base、small、medium、large 等所有版本。
常用镜像源推荐
- Hugging Face 国内镜像 (首选)
- 地址:
https://hf-mirror.com/ - 这个专门针对 HF Hub 优化,速度稳,覆盖全。
- 地址:
- 阿里云 ModelScope
- 地址:
https://modelscope.cn/ - 阿里系的模型库,集成度好,部分版本需搜 "openai-whisper"。
- 地址:
- 百度 PaddlePaddle
- 地址:
https://mirror.paddlepaddle.cn/hub/ - 教育网环境可能更快,适合批量拉取。
- 地址:
- 清华 TUNA
- 地址:
https://mirrors.tuna.tsinghua.edu.cn/ - 主要存软件包,但有 HF 缓存路径,作为备选。
- 地址:
建议先测一下响应速度,ping 低于 100ms 比较理想。
怎么快速下载?
浏览器手动下载
新手可以直接用浏览器。打开 hf-mirror.com,搜 openai/whisper-base 这种关键词。进去后找 pytorch_model.bin 或者 model.safetensors,右键下载就行。
比如 Base 版的直链:https://hf-mirror.com/openai/whisper-base/resolve/main/pytorch_model.bin
命令行自动化
开发者更推荐用 huggingface-cli。先装个依赖:
pip install huggingface_hub
然后设置环境变量指向镜像:
export HF_ENDPOINT=https://hf-mirror.com
这样后续命令就自动走镜像了。下载单个版本很简单:
huggingface-cli download openai/whisper-large-v2 --local-dir ./whisper-large
如果要一次性下多个版本,写个循环脚本更方便:
versions=("base" "small" "medium" "large")
for version in "${versions[@]}"; do
huggingface-cli download openai/whisper- --local-dir ./whisper-

