
在开发过程中,依赖云端大模型往往意味着数据上传和隐私风险。通过在本机运行开源模型,我们既能享受 AI 带来的效率提升,又能确保代码完全留在本地。下面演示如何在 VSCode 中结合 Ollama 与 CodeGPT 插件,搭建一套私有的 DeepSeek 编码辅助环境。
一、环境准备:安装 Ollama 与 CodeGPT
要在本地跑通 LLM(大语言模型),核心是 Ollama,它负责在机器上加载和推理模型;而 CodeGPT 则是 VSCode 的扩展,负责将模型能力集成到编辑器中。
1. 安装 Ollama
Ollama 是一个轻量级平台,支持 Windows、macOS 和 Linux。
访问官网 https://ollama.com 下载对应系统的安装包。安装完成后,打开终端验证版本:
ollama --version
如果显示版本号,说明服务已就绪。
2. 配置 CodeGPT 扩展
在 VSCode 中打开扩展市场(快捷键 Ctrl + Shift + X 或 macOS 上的 Cmd + Shift + X),搜索'CodeGPT'并安装。

如需更多功能,可注册 CodeGPT 免费账户(可选):https://codegpt.co
二、下载并配置模型
环境就绪后,我们需要拉取适合本地运行的 DeepSeek 模型。这里推荐两个模型配合使用:
- 聊天模型:
deepseek-r1:1.5b,参数量小,对硬件要求低,适合大多数电脑流畅运行。 - 自动补全模型:
deepseek-coder:base,利用中间填充(FIM)技术,能预测函数或方法的中间部分,不仅仅是首尾。
1. 配置聊天模型
在 VSCode 侧边栏打开 CodeGPT,进入'本地 LLM'设置:
- 选择 Ollama 作为提供商。
- 从列表中找到
deepseek-r1:1.5b并点击下载。
下载完成后,即可在编辑器中高亮选中代码,输入 # 添加上下文,然后使用快捷命令:

/fix:修复错误或优化建议/refactor:重构代码结构/Explain:详细解释代码逻辑


