VSCode 本地部署 DeepSeek 模型实战指南
想要在不依赖云端服务的情况下,利用 AI 提升开发效率?通过 Ollama 和 CodeGPT,我们可以在本地运行 DeepSeek 模型,实现完全私密的代码辅助。整个过程无需联网调用 API,数据始终留在你的机器上。
环境准备:Ollama 与 CodeGPT
要在 VSCode 里跑通本地大模型,核心是两个组件:Ollama(负责运行 LLM)和 CodeGPT(负责在编辑器中集成)。
安装 Ollama
Ollama 是个轻量级平台,专门用来在本地跑大语言模型。
- 下载:访问官网 https://ollama.com,根据你的操作系统(Windows、macOS 或 Linux)下载安装包。
- 验证:安装完成后,打开终端输入以下命令检查版本:
ollama --version
如果看到版本号输出,说明环境没问题。
配置 VSCode 扩展
接下来是 CodeGPT,它能把这些模型直接集成到编辑器里。
- 打开 VSCode,进入扩展市场(快捷键
Ctrl + Shift + X或 macOS 上的Cmd + Shift + X)。 - 搜索 "CodeGPT" 并点击安装。
- 安装后重启 VSCode 即可生效。
模型下载与配置
环境搭好后,就可以拉取 DeepSeek 的模型了。这里推荐两个不同用途的模型:
- 聊天模型:
deepseek-r1:1.5b,适合对话和代码解释,对硬件要求较低。 - 自动补全模型:
deepseek-coder:base,利用中间填充 (FIM) 技术,能预测函数中间部分,不仅仅是开头或结尾。
下载聊天模型
在 VSCode 中打开 CodeGPT 侧边栏,找到'本地 LLM'部分:
- 选择 Ollama 作为提供商。
- 从列表中找到
deepseek-r1:1.5b并点击下载。 - 等待下载完成,模型会自动加载。
这时候你可以选中一段代码,使用 # 符号添加上下文,然后尝试 /fix(修复错误)、/refactor(重构)或 /Explain(解释代码)等快捷指令。
下载自动补全模型
为了获得实时代码建议,我们需要单独拉取补全模型。直接在终端运行:
ollama pull deepseek-coder:base
这个命令会把模型文件下载到本地。完成后回到 CodeGPT 设置,切换到自动补全模型选项卡,选择 deepseek-coder:base。现在当你开始敲代码时,模型就会实时给出智能建议了。
隐私与本地化优势
完成上述配置后,你就拥有了一个完全本地的 AI 编码助手。最大的好处就是隐私安全——所有代码和数据都不会离开你的计算机,不用担心敏感信息泄露给第三方 API。虽然初期需要一点时间下载模型,但一旦跑起来,体验非常流畅且可控。


