在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

        本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。 

步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT

        要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。

安装 Ollama

Ollama 是一个轻量级平台,可以轻松运行本地 LLM。

下载Ollama

访问官方网站:https://ollama.com

  • 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。
  • 验证安装
    安装后,打开终端并运行:

ollama --version 

如果 Ollama 安装正确,它将显示已安装的版本。

在 Visual Studio Code 中安装 CodeGPT

打开 VSCode并导航到扩展市场(Ctrl + Shift + X 或 macOS 上为 Cmd + Shift + X)。

搜索“CodeGPT”并点击安装。

或者您可以在此处创建一个免费帐户:https://codegpt.co

安装 Ollama 和 CodeGPT 后,我们现在可以下载并配置 DeepSeek 以开始在本地使用 AI 进行编码。 

第 2 步:下载并设置模型

现在您已经成功安装了 Ollama 和 CodeGPT,现在是时候下载您将在本地使用的模型了。

  • 聊天模型:deepseek-r1:1.5b,针对较小的环境进行了优化,可以在大多数计算机上顺利运行。
  • 自动补全模型:deepseek-coder:1.3b。该模型利用中间填充 (FIM)技术,可以在您编写代码时提供智能自动补全建议。它可以预测并建议函数或方法的中间部分,而不仅仅是开头或结尾。

下载聊天模型 (deepseek-r1:1.5b)

要开始使用聊天模型:

  • VSCode中打开CodeGPT
  • 导航到侧边栏中的“本地 LLM”部分。
  • 从可用选项中,选择Ollama作为本地 LLM 提供商。
  • 选择模型deepseek-r1:1.5b
  • 点击下载按钮。模型将自动开始下载。

下载完成后,CodeGPT 将自动安装模型。安装完成后,您就可以开始与模型进行交互了。

现在,您可以轻松地查询有关代码的模型。只需在编辑器中突出显示任何代码,使用#符号将额外文件添加到查询中,然后利用强大的命令快捷方式,例如: 

/fix — 用于修复错误或建议改进代码。
/refactor — 用于清理和改进代码结构。
/Explain — 获取任何一段代码的详细解释。
这种聊天模型非常适合帮助解决特定问题或获取有关代码的建议。

下载自动完成模型 (deepseek-coder:base)

为了增强代码自动完成功能:

在 VSCode 中打开终端。
运行以下命令来提取deepseek-coder:base模型:

ollama pull deepseek-coder:base

此命令将自动完成模型下载到您的本地机器。
下载完成后,返回CodeGPT并导航到自动完成模型部分。
从可用模型列表中选择deepseek-coder:base 。

选择后,您就可以开始编码。在您输入时,模型将开始提供实时代码建议,帮助您轻松完成函数、方法甚至整个代码块。 

步骤 3:享受无缝本地和私人人工智能编码

        设置模型后,您现在可以享受使用这些强大工具的全部好处,而无需依赖外部 API。通过在您的机器上本地运行所有内容,您可以确保完全的隐私和对编码环境的控制。无需担心数据离开您的计算机,一切都保持安全和私密。

如果您喜欢此文章,请收藏、点赞、评论,谢谢,祝您快乐每一天。   

Read more

【Docker进阶篇】告别OOM Kill!Java容器化内存与CPU限制实战指南

【Docker进阶篇】告别OOM Kill!Java容器化内存与CPU限制实战指南

🍃 予枫:个人主页 📚 个人专栏: 《Java 从入门到起飞》《读研码农的干货日常》 💻 Debug 这个世界,Return 更好的自己! 引言 做Java容器化部署的小伙伴,大概率都踩过这样的坑:明明给容器配置了–memory限制,JVM也设了-Xmx参数,结果应用还是频繁被OOM Kill;要么就是CPU限制设太高,资源浪费严重,设太低又导致应用卡顿。今天就彻底搞懂Java容器化中CPU和内存限制的核心逻辑,避开配置陷阱,让应用稳定运行不翻车! 文章目录 * 引言 * 一、为什么Java容器化,内存和CPU配置容易出问题? * 二、容器内存限制(--memory)配置指南(重点避坑) * 2.1 容器内存的组成的部分 * 2.2 内存配置黄金比例(实战可用) * 实战示例(重点) * 2.3 关键避坑点(必看) * 三、容器CPU限制(--cpus)

By Ne0inhk
Flutter 三方库 openapi_dart_common 的鸿蒙化适配指南 - 实现具备强类型契约的高性能 API 通讯模型、支持端侧 OpenAPI/Swagger 协议的自动化生成与对齐实战

Flutter 三方库 openapi_dart_common 的鸿蒙化适配指南 - 实现具备强类型契约的高性能 API 通讯模型、支持端侧 OpenAPI/Swagger 协议的自动化生成与对齐实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 openapi_dart_common 的鸿蒙化适配指南 - 实现具备强类型契约的高性能 API 通讯模型、支持端侧 OpenAPI/Swagger 协议的自动化生成与对齐实战 前言 在进行 Flutter for OpenHarmony 的企业级前后端分离开发时,如何保证客户端请求代码与后端 API 定义的绝对同步?手动编写 API 模型不仅低效,且极易引发类型不匹配导致的生产 Bug。openapi_dart_common 是 OpenAPI (Swagger) 官方生成器在 Dart 端的基石库。它提供了一套标准的序列化、参数处理及抽象拦截器机制。本文将探讨如何在鸿蒙端构建极致稳健的工程化接口层。 一、原直观解析 / 概念介绍 1.1

By Ne0inhk
Flutter 三方库 mobx_codegen — 自动化驱动的高性能响应式状态管理(适配鸿蒙 HarmonyOS Next ohos)

Flutter 三方库 mobx_codegen — 自动化驱动的高性能响应式状态管理(适配鸿蒙 HarmonyOS Next ohos)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 在 Flutter 状态管理的璀璨星空中,MobX 以其“透明的函数式响应式编程”(TFRP)特性脱颖而出。它让开发者能以声明式的方式描述状态,而让框架自动处理状态变更到 UI 刷新的全过程。 在 Flutter for OpenHarmony 开发中,手动编写 MobX 繁琐的连接代码不仅效率低,且容易出错。mobx_codegen 库通过解析注解,自动生成高性能的底层观察逻辑。今天,我们将探索如何利用自动化力量,在鸿蒙平台上构建出极其灵动的响应式应用。 一、为什么需要 mobx_codegen? 1.1 MobX 的魔法核心 MobX 包含三个核心概念:Observables(被观察的状态)、Actions(改变状态的动作)和 Reactions(对新状态的自动响应)

By Ne0inhk

服务器HBA卡与RAID卡:到底有什么区别?

1.本质定义与功能定位 1.1 HBA卡(主机总线适配器) 定义:HBA(Host Bus Adapter)是连接服务器内部I/O通道与外部存储设备的硬件接口卡,主要承担协议转换和物理连接功能。 核心功能: * 提供高速数据传输通道 * 实现协议转换(如SCSI、SAS、SATA、FC等) * 将存储设备透明呈现给操作系统 * 支持直接设备访问,无中间处理层 1.2 RAID卡(磁盘阵列控制器) 定义:RAID(Redundant Array of Independent Disks)卡是专门管理多个硬盘组成磁盘阵列的硬件控制器,具备数据冗余和性能优化功能。 核心功能: * 实现RAID级别配置(RAID 0/1/5/6/10等) * 提供数据冗余保护与容错机制 * 优化磁盘读写性能(条带化、缓存等) * 支持热插拔与故障磁盘替换

By Ne0inhk