llama.cpp Docker 镜像国内加速方案
目前 llama.cpp 官方提供的 Docker 镜像下载命令如下:
docker pull ghcr.io/ggml-org/llama.cpp:server-cuda-b6222
在国内服务器环境下,直接下载速度往往较慢。
较好的解决方法是将镜像源地址 ghcr.io 替换为国内镜像源 ghcr.nju.edu.cn:
# 官方命令
docker pull ghcr.io/ggml-org/llama.cpp:server-cuda
# 国内源地址命令
docker pull ghcr.nju.edu.cn/ggml-org/llama.cpp:server-cuda
使用国内源可显著提升下载速度。

