想要在不依赖云服务的前提下利用 AI 增强开发?本地部署 DeepSeek 是个不错的选择。核心在于安装 Ollama 以运行本地大模型,并配合 CodeGPT 扩展实现编码辅助。
环境搭建
首先需要在机器上安装 Ollama,这是一个轻量级平台,能轻松运行本地 LLM。
- 下载 Ollama:访问 Ollama 官网,根据你的操作系统(Windows、macOS 或 Linux)下载安装程序。
- 验证安装:打开终端运行
ollama --version,若显示版本号则安装成功。
接着在 Visual Studio Code 中安装 CodeGPT 扩展。进入扩展市场(Ctrl + Shift + X),搜索'CodeGPT'并安装。如需更多功能,可在此注册免费账户。
模型下载与配置
环境就绪后,即可下载并配置 DeepSeek 模型。推荐以下两个模型组合:
- 聊天模型:
deepseek-r1:1.5b,针对较小环境优化,大多数电脑都能流畅运行。 - 自动补全模型:
deepseek-coder:base,利用中间填充 (FIM) 技术,能在编写代码时预测函数或方法的中间部分,而不仅是开头或结尾。
配置聊天模型
在 VSCode 侧边栏打开 CodeGPT,选择'本地 LLM',提供商选 Ollama,模型选 deepseek-r1:1.5b,点击下载。完成后即可交互。
选中编辑器中的代码,用 # 符号添加额外文件,然后使用快捷命令:
/fix:修复错误或建议改进。/refactor:清理和改进代码结构。/Explain:获取详细解释。
配置自动补全
在 VSCode 终端运行以下命令拉取模型:
ollama pull deepseek-coder:base
下载完成后,回到 CodeGPT 的自动完成模型部分,从列表中选择 deepseek-coder:base。输入代码时,模型将提供实时建议,帮助你快速完成函数甚至整个代码块。
享受本地 AI 编码
设置完成后,你便拥有了完全私密的 AI 编码环境。所有计算都在本地进行,无需担心数据离开计算机,既安全又可控。


