VSCode 本地运行 DeepSeek 配置指南
本文将分步展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 增强软件开发工作流程,所有这些都无需依赖基于云的服务。
步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT
要在本地运行 DeepSeek,首先需要安装 Ollama(允许在机器上运行 LLM)以及 CodeGPT(集成这些模型的 VSCode 扩展)。
安装 Ollama
Ollama 是一个轻量级平台,可以轻松运行本地 LLM。
下载 Ollama
访问官方网站:https://ollama.com

- 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
- 验证安装 安装后,打开终端并运行:
ollama --version
如果 Ollama 安装正确,它将显示已安装的版本。
在 Visual Studio Code 中安装 CodeGPT
打开 VSCode 并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。
搜索'CodeGPT'并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co
安装 Ollama 和 CodeGPT 后,现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。
步骤 2:下载并设置模型
现在您已经成功安装了 Ollama 和 CodeGPT,是时候下载将在本地使用的模型了。
- 聊天模型:
deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。 - 自动补全模型:
deepseek-coder:base。该模型利用中间填充 (FIM) 技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。
下载聊天模型 (deepseek-r1:1.5b)
要开始使用聊天模型:
- 在 VSCode 中打开 CodeGPT。
- 导航到侧边栏中的'本地 LLM'部分。
- 从可用选项中,选择 Ollama 作为本地 LLM 提供商。
- 选择模型
deepseek-r1:1.5b。 - 点击下载按钮。模型将自动开始下载。
下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。
现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用 # 符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如:



