在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

        本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。 

步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT

        要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。

安装 Ollama

Ollama 是一个轻量级平台,可以轻松运行本地 LLM。

下载Ollama

访问官方网站:https://ollama.com

  • 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
  • 验证安装
    安装后,打开终端并运行:

ollama --version 

如果 Ollama 安装正确,它将显示已安装的版本。

在 Visual Studio Code 中安装 CodeGPT

打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。

搜索“CodeGPT”并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co

安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。 

第 2 步:下载并设置模型

现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。

  • 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
  • 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。

下载聊天模型 (deepseek-r1:1.5b)

要开始使用聊天模型:

  • VSCode中打开CodeGPT
  • 导航到侧边栏中的“本地 LLM”部分。
  • 从可用选项中,选择Ollama作为本地 LLM 提供商。
  • 选择模型deepseek-r1:1.5b
  • 点击下载按钮。模型将自动开始下载。

下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。

现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如: 

/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。

下载自动完成模型 (deepseek-coder:base)

为了增强代码自动完成功能:

在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:

ollama pull deepseek-coder:base

此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。

选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。 

步骤 3:享受无缝本地和私人人工智能编码

        设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。   

Read more

工业物联网时代时序数据库选型指南:从大数据架构视角深度解析Apache IoTDB

工业物联网时代时序数据库选型指南:从大数据架构视角深度解析Apache IoTDB

👨‍🎓博主简介 🏅ZEEKLOG博客专家 🏅云计算领域优质创作者 🏅华为云开发者社区专家博主 🏅阿里云开发者社区专家博主 💊交流社区:运维交流社区 欢迎大家的加入! 🐋 希望大家多多支持,我们一起进步!😄 🎉如果文章对你有帮助的话,欢迎 点赞 👍🏻 评论 💬 收藏 ⭐️ 加关注+💗 文章目录 * 一、引言:时序数据管理的范式转移 * 二、时序数据库选型的六大核心维度 * 2.1 写入吞吐性能:高并发数据洪流的承载能力 * 2.2 查询响应延迟:实时业务决策的时效保障 * 2.3 存储压缩效率:TCO控制的关键杠杆 * 2.4 数据模型灵活性:物理世界的数字化映射 * 2.5 端边云协同架构:全场景部署的适应能力 * 2.6 生态集成能力:技术栈的无缝融合 * 三、国际主流时序数据库技术路线分析 * 3.1

By Ne0inhk
什么是 n8n?开源工作流自动化神器详解

什么是 n8n?开源工作流自动化神器详解

🐇明明跟你说过:个人主页 🏅个人专栏:《深度探秘:AI界的007》 🏅 🔖行路有良友,便是天堂🔖 目录 一、n8n简介 1、什么是 n8n  2、与 Zapier、Integromat 的对比 二、n8n 的核心概念 1、Workflow(工作流) 2、Node(节点)和 Trigger(触发器) 3、Credentials(凭证)和数据传递 三、n8n 的应用场景 1、日常任务自动化 2、DevOps 场景 一、n8n简介 1、什么是 n8n 你好呀,程序员朋友、职场达人、

By Ne0inhk
Flutter for OpenHarmony:graphql_codegen 让 GraphQL 开发如丝顺滑,自动化生成类型安全的 Dart 代码(Schema 到 Model) 深度解析与鸿蒙适

Flutter for OpenHarmony:graphql_codegen 让 GraphQL 开发如丝顺滑,自动化生成类型安全的 Dart 代码(Schema 到 Model) 深度解析与鸿蒙适

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在 GraphQL 开发中,手动解析 JSON 是极其低效且易出错的。graphql_codegen 通过自动生成的强类型 Dart 代码,让你的开发体验从“黑盒解析”进化到“全量代码提示”。 本指南将结合 OpenHarmony 环境,详细介绍如何配置、编写以及解决常见的版本与构建报错。 一、 核心原理解析 graphql_codegen 的工作流程可以概括为:输入(Schema + Query) -> 编译 -> 输出(Type Safe Dart Code)。 * Schema (lib/schema.graphql): 它是服务端的“说明书”

By Ne0inhk
Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案

Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pls 的适配 鸿蒙Harmony 实战 - 驾驭经典网络音频流协议、实现鸿蒙端 PLS 播放列表解析与沉浸式电台控制中心方案 前言 在鸿蒙(OpenHarmony)生态的多媒体应用开发中,除了当红的 HLS 和 Dash 协议外,一个被广泛应用在网络电台、复古音乐分享以及专业播音系统中的经典协议——PLS(Playlist File)格式,依然占据着不可忽视的地位。 PLS 之于音频流,如同 Map 之于数据结构:结构简单、解析高效。但如何在鸿蒙端将其不仅解析出来,还能无缝对接到鸿蒙系统的音频焦点、媒体控制中心以及分布式音频分发体系中? pls 库是一套专为该协议设计的轻量化解析引擎。它能将看似杂乱的文本配置文件瞬间转为结构化的音频流列表。适配到鸿蒙平台后,它不仅能支撑起一个功能纯粹的网络收音机,更是我们构建“鸿蒙全场景影音同步”中流地址分发的关键一环。

By Ne0inhk