Llama-3.2-3B 部署优化:Ollama 量化与 GPU 适配实践 | 极客日志