VSCode 本地部署 DeepSeek,打造私人 AI 编程助手
在开发过程中,我们往往希望利用 AI 提升效率,但又不愿将代码上传至云端。通过 Ollama 和 CodeGPT,我们可以在本地运行 DeepSeek 模型,实现完全私有的智能编码辅助。
环境搭建:Ollama 与 CodeGPT
要在本地跑通流程,核心是安装 Ollama 作为推理引擎,以及 CodeGPT 作为 VSCode 的交互插件。
安装 Ollama
Ollama 是一个轻量级的 LLM 运行平台。访问官网下载对应系统的安装包(Windows、macOS 或 Linux)。
安装完成后,打开终端验证版本:
ollama --version
若显示版本号,说明环境已就绪。
配置 CodeGPT 扩展
在 VSCode 中打开扩展市场(Ctrl + Shift + X),搜索并安装 CodeGPT。该插件负责将本地模型与编辑器无缝连接。
模型选择与下载
安装好基础环境后,我们需要拉取适合不同场景的 DeepSeek 模型。
- 聊天模型:
deepseek-r1:1.5b,针对资源受限环境优化,适合大多数机器运行对话任务。 - 自动补全模型:
deepseek-coder:base,利用中间填充 (FIM) 技术,能预测函数或方法的中间部分,而不仅仅是首尾。
下载聊天模型
在 VSCode 侧边栏找到 CodeGPT,进入 本地 LLM 设置:
- 选择 Ollama 作为提供商。
- 从列表中选择
deepseek-r1:1.5b。 - 点击 下载 按钮,等待自动完成。
下载完毕后,选中代码块,使用快捷键即可调用模型进行查询。支持以下命令:
/fix:修复错误或建议改进。/refactor:重构代码结构。/explain:详细解释代码逻辑。
下载自动补全模型
为了获得实时代码建议,需要在终端执行拉取命令:
ollama pull deepseek-coder:base
回到 CodeGPT 设置中的 自动补全模型 部分,选择 deepseek-coder:base。保存后,输入代码时模型便会开始提供实时建议。
本地化优势
配置完成后,所有的推理过程都在您的机器上完成。这意味着无需依赖外部 API,数据不会离开本地环境,既安全又私密。您可以放心地使用这些工具处理敏感项目代码,享受无缝的 AI 编程体验。


