大模型本地部署指南:基于 llama.cpp 在 CPU 上运行 LLaMA2 | 极客日志