在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

        本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。 

步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT

        要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。

安装 Ollama

Ollama 是一个轻量级平台,可以轻松运行本地 LLM。

下载Ollama

访问官方网站:https://ollama.com

  • 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
  • 验证安装
    安装后,打开终端并运行:

ollama --version 

如果 Ollama 安装正确,它将显示已安装的版本。

在 Visual Studio Code 中安装 CodeGPT

打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。

搜索“CodeGPT”并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co

安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。 

第 2 步:下载并设置模型

现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。

  • 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
  • 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。

下载聊天模型 (deepseek-r1:1.5b)

要开始使用聊天模型:

  • VSCode中打开CodeGPT
  • 导航到侧边栏中的“本地 LLM”部分。
  • 从可用选项中,选择Ollama作为本地 LLM 提供商。
  • 选择模型deepseek-r1:1.5b
  • 点击下载按钮。模型将自动开始下载。

下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。

现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如: 

/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。

下载自动完成模型 (deepseek-coder:base)

为了增强代码自动完成功能:

在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:

ollama pull deepseek-coder:base

此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。

选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。 

步骤 3:享受无缝本地和私人人工智能编码

        设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。   

Read more

MacOS 下使用 Docker 部署宝塔面板详细指南

在开发过程中,项目管理常常让人头疼,尤其是外包开发时,涉及多个项目环境的切换。虽然 Windows 下有 phpstudy 等集成环境,但在 MacOS 上,类似工具相对较少。线上服务器常用宝塔进行项目部署、计划任务和软件安装,极为便捷。但宝塔无法直接在 Mac 上安装,因此可以考虑通过 Docker 部署宝塔面板。 部署步骤 1. 安装 Docker 请先确保系统已安装 Docker。 2. 拉取 Ubuntu 镜像 docker pull ubuntu 3. 运行镜像生成容器(首次无需端口映射) docker run -i -t -d \ --name yywk-baota \ --privileged=true \ -v /Users/wang/

By Ne0inhk

飞书 × OpenClaw 接入指南:不用服务器,用长连接把机器人跑起来

你想在飞书里用上一个能稳定对话、能发图/收文件、还能按规则在群里工作的 AI 机器人,最怕两件事:步骤多、出错后不知道查哪里。这个项目存在的意义,就是把“飞书接 OpenClaw”这件事,整理成一套对非技术也友好的配置入口,并把官方文档没覆盖到的坑集中写成排查清单。 先说清楚它的角色:OpenClaw 现在已经内置官方飞书插件 @openclaw/feishu,功能更完整、维护也更及时。这是好事,说明飞书 + AI 的接入已经走通。这个仓库并不是要替代官方插件,而是继续为大家提供: * 新用户:从零开始的新手教程(15–20 分钟) * 老用户:从旧版(独立桥接或旧 npm 插件)迁移到官方插件的保姆级路线 * 常见问题答疑 & 排查清单(最常见的坑优先) * 进阶场景:独立桥接模式依然可用(需要隔离/定制时再用) 另外,仓库也推荐了一个新项目

By Ne0inhk
TCP/IP详解

TCP/IP详解

目录 一、Internet地址结构 1.基本的IP地址结构 2.CIDR和聚合 3.特殊用途地址 二、协议 1.ARP地址解析协议 2.Internet协议 IPv6扩展头部: IP转发: 一、IP 转发的核心前提 二、IP 转发的两种核心方式(对应书中重点讲解内容) 1. 直接交付(局域网内转发) 2. 间接交付(跨网络转发) 移动IP: 一、移动 IP 的核心前提与设计目标 二、移动 IP 的核心组件(3 个关键角色,缺一不可) 三、移动 IP 的核心工作流程(4 个关键步骤,贴合 IP

By Ne0inhk
不用服务器也能搭博客?Docsify + cpolar让技术文档秒变公网站点

不用服务器也能搭博客?Docsify + cpolar让技术文档秒变公网站点

文章目录 * 前言 * 1. 本地部署Docsify * 2. 使用Docsify搭建个人博客 * 封面配置文件(_coverpage.md) * 3. 安装Cpolar内网穿透工具 * 4. 配置公网地址 * 5. 配置固定公网地址 前言 Docsify 是一款轻量级的 Markdown 文档网站生成工具,无需提前编译,写完内容保存后就能实时预览效果,特别适合程序员、技术博主搭建 API 文档、开发指南或个人博客。它支持 Emoji 表情、全文搜索和多浏览器兼容,用简单的 Markdown 文件就能构建结构清晰的网站,省去了复杂的建站配置。 用 Docsify 写博客时,最直观的感受是 “零负担”—— 不用操心主题代码,专注内容本身即可。不过要注意,默认的侧边栏和导航栏需要手动配置文件,初期可以先用默认模板,熟悉后再慢慢定制,避免一开始就陷入配置细节影响创作节奏。 但 Docsify 默认只能在本地或局域网内访问,

By Ne0inhk