问题描述
目前 llama.cpp 官方提供的 Docker 镜像下载速度较慢,影响使用效率。
解决方案
建议将官方镜像源 ghcr.io 替换为国内镜像源 ghcr.nju.edu.cn 进行拉取。
# 官方命令(速度较慢)
docker pull ghcr.io/ggml-org/llama.cpp:server-cuda
# 国内镜像源(推荐)
docker pull ghcr.nju.edu.cn/ggml-org/llama.cpp:server-cuda
通过上述方式可显著提升下载速度。

