背景
在本地或服务器部署 llama.cpp 时,直接拉取官方 Docker 镜像往往受限于网络环境,导致下载速度极慢。

解决方案
遇到此类问题时,可以尝试使用国内镜像源替换默认仓库地址。将 ghcr.io 替换为 ghcr.nju.edu.cn 即可实现加速。
命令示例
# 官方源(国内访问可能超时)
docker pull ghcr.io/ggml-org/llama.cpp:server-cuda
# 国内镜像源(推荐)
docker pull ghcr.nju.edu.cn/ggml-org/llama.cpp:server-cuda
实测切换源后下载效率提升明显,能大幅缩短构建和部署前的等待时间。

