在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

        本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。 

步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT

        要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。

安装 Ollama

Ollama 是一个轻量级平台,可以轻松运行本地 LLM。

下载Ollama

访问官方网站:https://ollama.com

  • 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
  • 验证安装
    安装后,打开终端并运行:

ollama --version 

如果 Ollama 安装正确,它将显示已安装的版本。

在 Visual Studio Code 中安装 CodeGPT

打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。

搜索“CodeGPT”并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co

安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。 

第 2 步:下载并设置模型

现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。

  • 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
  • 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。

下载聊天模型 (deepseek-r1:1.5b)

要开始使用聊天模型:

  • VSCode中打开CodeGPT
  • 导航到侧边栏中的“本地 LLM”部分。
  • 从可用选项中,选择Ollama作为本地 LLM 提供商。
  • 选择模型deepseek-r1:1.5b
  • 点击下载按钮。模型将自动开始下载。

下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。

现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如: 

/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。

下载自动完成模型 (deepseek-coder:base)

为了增强代码自动完成功能:

在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:

ollama pull deepseek-coder:base

此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。

选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。 

步骤 3:享受无缝本地和私人人工智能编码

        设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。   

Read more

极简即王道 下一代Agent架构Pi Agent Core设计逻辑深度解析

极简即王道 下一代Agent架构Pi Agent Core设计逻辑深度解析

在当前人工智能Agent领域的发展浪潮中,各类框架层出不穷,大多数开发者都陷入了一种“加法思维”的误区,认为Agent的能力提升必然依赖更多的工具、更长的提示词、更复杂的规划链路以及更多的子Agent。然而,由Mario Zechner开发的Pi Agent Core(以下简称Pi)却走出了一条截然不同的道路,它以“极简主义”为核心哲学,用不到1500行代码、5个核心文件,在Terminal-Bench 2.0排行榜中与众多复杂架构的Agent同台竞技并跻身前列,重新定义了下一代Agent的设计逻辑。 Pi的核心哲学源自Mario Zechner的一句总结,An autonomous agent is just an LLM + tools + a loop. 这句话看似简单,却直击Agent的本质,也成为了Pi所有设计决策的出发点。作为一名在Agent开发领域有着深刻经验的开发者,Mario Zechner在长期实践中发现,当前很多Agent框架的复杂设计不仅没有提升效率,反而增加了系统的冗余度和维护成本,甚至影响了Agent的自主性和灵活性。于是,他摒弃了主流的加法思路,选择用减

By Ne0inhk
Flutter 组件 censor_it 适配鸿蒙 HarmonyOS 实战:离线内容净化墙,构建端侧敏感词过滤与合规性治理架构

Flutter 组件 censor_it 适配鸿蒙 HarmonyOS 实战:离线内容净化墙,构建端侧敏感词过滤与合规性治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 censor_it 适配鸿蒙 HarmonyOS 实战:离线内容净化墙,构建端侧敏感词过滤与合规性治理架构 前言 在鸿蒙(OpenHarmony)生态迈向内容社交、即时通讯及 UGC(用户生成内容)全场景覆盖的背景下,如何确保信息的合规性、在端侧拦截违规内容,已成为提升应用生态安全性与用户粘性的“风控红线”。在鸿蒙设备这类强调分布式隐私与绿色上网环境的终端上,如果内容过滤完全依赖云端接口,不仅会由于由于网络往返导致明显的交互滞后,更会由于由于频繁的 API 调用增加额外的运营成本。 我们需要一种能够在端侧执行高速扫描、支持动态字典更新且具备算法透明性的字符过滤引擎。 censor_it 为 Flutter 开发者引入了轻量级的敏感词过滤方案。它通过高效的字符串匹配算法,自动将预设的敏感源转化为可定制的和谐占位符。在适配到鸿蒙 HarmonyOS 流程中,这一组件能够作为鸿蒙应用内容发布的“安检门”,通过在前置环节对文本执行离线脱敏处理

By Ne0inhk

OpenClaw.ai:Agentic AI 时代的“SpringFramework”时刻

—— 关于下一代智能体基础设施架构、生态演进与企业级可行性的系统性研究报告 第一章 历史的镜像:从软件危机到 Agentic AI 的基础设施真空 1.1 J2EE 的黄昏与 Spring 的黎明:关于复杂性的辩证法 要理解“Spring Framework 时刻”的深刻含义,我们必须将目光投向 21 世纪初的 Java 企业级开发领域。彼时,J2EE(Java 2 Platform, Enterprise Edition)虽然承诺了分布式计算的宏大愿景,但其实现方式——特别是 EJB(Enterprise JavaBeans)——却陷入了过度设计的泥潭。开发者被迫编写大量的 XML 配置文件,继承复杂的接口,不仅难以进行单元测试,且组件之间的耦合度极高。这种“重量级”框架导致的开发效率低下,被称为“J2EE

By Ne0inhk
OpenClaw 从入门到精通:本地优先 AI 助手,一文吃透架构、部署与实战

OpenClaw 从入门到精通:本地优先 AI 助手,一文吃透架构、部署与实战

适合人群:前端/全栈开发者、AI 爱好者、私有化部署玩家 阅读收益:理解设计思想 → 10 分钟部署落地 → 掌握二次开发思路 一、OpenClaw 到底是什么? OpenClaw 是开源、本地优先、可自动执行任务的个人 AI 助手。 它不只是聊天,而是能接管你的电脑、文件、浏览器、IM 工具,用自然语言完成真实工作。 核心定位 • 私有化:数据不上云,全在本地 • 能干活:文件管理、浏览器操作、消息收发、脚本执行 • 全渠道:Telegram/Discord/Slack/iMessage 等一键接入 • 插件化:Skills 技能系统,无限扩展 核心优势 • 🌐 Gateway 统一网关:所有通道、

By Ne0inhk