本地部署 Kimi K2 模型:llama.cpp、vLLM、Docker 三种方案 | 极客日志