MacBook 本地部署大模型:Ollama 与 llama.cpp 方案对比 | 极客日志