LFM2.5-1.2B-Thinking-GGUF 模型部署与 llama.cpp 运行原理详解 | 极客日志