使用VS Code插件搭建AI开发环境完全指南

使用VS Code插件搭建AI开发环境完全指南

前篇:

AI编程教学:手把手搭建AI编程环境(IDE/插件/CLI方案)

Claude code免费体验+安装方式,对接国产大模型,Node + 配置教程

01. AI编程工具概述

目前主流的AI编程工具主要分为三类:集成IDE、插件模式和独立CLI。

其中,插件模式以其轻量级和高兼容性成为许多开发者的首选。通过在VSCode中安装相应插件,开发者可以在不离开熟悉的编辑器环境的情况下,享受到AI辅助编程的便利。

插件模式的优势在于:

  • 无需切换编辑器,保持开发环境一致性
  • 可根据需求灵活选择不同AI模型
  • 资源占用小,启动速度快
  • 支持与本地开发环境深度集成

02. VS Code AI插件选择

目前市场上有多种VS Code AI插件可供选择,各有特色。以下是几款主流插件的对比分析:

添加图片注释,不超过 140 字(可选)

综合对比下来,RooCode是目前最推荐的VS Code AI插件,它不仅支持多种模型和模式切换,而且对中文的支持非常友好,适合国内开发者使用。

03. RooCode插件安装与配置

3.1 安装RooCode插件

安装RooCode插件的步骤非常简单:

1.打开VSCode,点击左侧边栏的"扩展"图标(或使用快捷键Ctrl+Shift+X)

2. 在搜索框中输入"RooCode",找到带有小袋鼠图标的插件

3. 点击"安装"按钮,等待安装完成

4. 安装完成后,插件默认会出现在侧边栏底部,可将其拖动到侧边栏上方以便使用

3.2 RooCode主要功能模式

RooCode提供三种主要工作模式,满足不同开发需求:

  • 架构模式:适合架构师进行项目计划和设计
  • Code模式:专注于代码编写,提供实时建议和补全
  • Ask模式:用于问答形式的知识查询和问题解决

3.3 整体架构与工作原理

VS Code AI开发环境的整体架构如下:

1. VS Code作为基础编辑器平台

2. RooCode插件作为AI客户端,负责与AI模型交互

3. 通过API调用方式连接到AI模型服务(原生API或聚合平台)

4. 插件通过工具调用(读文件、写文件、查找等)操作VS Code中的文件

PS. VS Code本身不具备直接与AI模型交互的能力,需要通过插件作为中间层,实现编辑器与AI模型的通信。

04. 对接AI模型服务

配置RooCode插件后,需要对接具体的AI模型服务才能正常使用。目前主要有两种对接方式:通过聚合平台或直接对接原生API。

4.1 通过摩搭社区对接(免费方案)

摩搭社区(ModelScope)是一个模型开源社区,提供多种AI模型的API服务,适合开发者免费体验。以下是对接步骤:

1. 注册摩搭社区账号

  • 访问摩搭社区官网并注册账号
  • 绑定阿里云账号,获得每日2000额度

2. 申请访问令牌(TOKEN)

  • 进入账号设置,找到"访问令牌"选项
  • 点击"创建令牌",保存生成的TOKEN

3. 配置RooCode插件

在VS Code中打开RooCode设置(点击插件图标旁的小齿轮)

  • API提供商选择"Open AI接入模式"
  • 粘贴摩搭社区的API base URL
  • 输入申请的TOKEN
  • 选择模型(如Deepseek 3.2、千问3等)

目前摩搭社区提供的可用模型包括:

  • Deepseek V3.2:12月最新发布,性能对标GPT5
  • 千问3:阿里达摩院开发的大语言模型
  • GLM系列:部分模型仅支持网页端使用,不提供API访问

05. 直接对接原生API(付费方案)

对于有更高需求的开发者,可以考虑直接对接模型厂商提供的原生API,获得更稳定的服务和更丰富的功能。以下是几个主流国产模型的接入方案:

Minimax M2模型

Minimax提供的M2模型性能优秀,支持图文理解,适合中文场景。

1. 访问Minimax官网,注册API开放平台账号

2. 选择Coding plan,每月29元,新用户送15元余额

3. 创建API密钥并复制

4. 在VS Code中新建settings.json文件,配置: { "roocode.apiKey": "你的API密钥", "roocode.baseUrl": "https://api.minimax.chat/v1/text/chatcompletion_pro", "roocode.model": "m2" } 5. 保存配置并重启VS Code

GLM模型

GLM提供的Coding plan性价比高,首月仅需20元。

  • 首月20元,第二个月起40元
  • 支持多种编程任务,中文理解能力强
  • 配置方式与Minimax类似,需使用GLM提供的API地址和密钥

Deepseek模型

Deepseek采用按TOKEN收费模式,适合用量波动较大的场景。

  • 按TOKEN收费,1000万TOKEN约3-4元
  • 12月最新发布的V3.2模型性能强劲
  • 适合对成本敏感且用量不稳定的用户
不同模型的API接口格式可能略有差异,配置时需参考各厂商提供的开发文档,确保base URL和请求参数格式正确。

05环境测试与使用

完成插件安装和模型配置后,建议进行简单测试以确保环境正常工作:

1. 基础功能测试

打开RooCode插件,切换到"Ask"模式

输入简单问题,如"如何用Python实现快速排序",检查是否能得到有效回答

2. 代码生成测试

新建一个代码文件

切换到"Code"模式,输入注释描述需要实现的功能

检查插件是否能根据注释生成合理的代码

3. 模型切换测试

  • 尝试切换不同模型,比较生成结果的差异
  • 根据任务类型选择最适合的模型

06高级配置与优化

多模型管理

对于需要同时使用多个AI模型的开发者,可以通过配置多个插件实例或使用支持多模型的插件来实现。RooCode支持在不同项目中保存不同的模型配置,满足多样化需求。

快捷键设置

为常用的AI功能设置快捷键可以进一步提升效率:

1. 打开VS Code快捷键设置(Ctrl+K, Ctrl+S)

2. 搜索RooCode相关命令

3. 为常用命令(如"生成代码"、"解释代码"等)设置自定义快捷键

资源监控

使用AI模型时需注意资源消耗:

  • 定期检查API使用情况,避免超出预算
  • 对于按TOKEN收费的模型,注意优化提示词,减少不必要的TOKEN消耗
  • 合理设置模型参数(如temperature),平衡生成质量和资源消耗

视频教程👇

VS Code 配置 AI 插件,小白零成本体验 AI 编程_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1jRqZBHEfL?spm_id_from=333.788.videopod.episodes&vd_source=5f0dbc9a3c34dd18b25b4e26b6a58a6c&p=3

在新中地GIS开发特训营,也引入了AI编程工具,在掌握基础编程的前提下,快速提升编程效率,将工作中繁杂的问题简单化,下面是同学们课堂上使用AI编程工具制作的案例。

图片

图片

图片

图片

新中地GIS开发特训营全年开班

从零基础到三维GIS开发工程师,学完推荐就业!

现开启免费试听模式,同步特训营内容👇

新中地教育GIS开发课程咨询官方入口 - 哔哩哔哩 (bilibili.com)https://www.bilibili.com/opus/1107861289058697224?spm_id_from=333.1387.0.0

Read more

FPGA仿真加速器——Matlab一键生成.mif/.txt/.coe文件(函数封装与实战应用)

1. 为什么需要Matlab一键生成FPGA配置文件 做FPGA开发的朋友们都知道,每次仿真测试都要手动准备各种初始化文件,这个流程真的太繁琐了。我记得刚开始接触FPGA的时候,每次都要重复写生成.mif、.txt、.coe文件的代码,不仅浪费时间,还容易出错。后来我就想,能不能把这些操作封装成一个函数,需要的时候直接调用就好了? .mif和.coe文件在FPGA设计中特别重要,它们是存储器的初始化文件。比如做DDS信号发生器时,需要把波形数据预先存储在ROM中;设计FIR滤波器时,要把滤波系数加载到RAM里。这些场景都离不开这两种文件。而.txt文件则是Matlab和FPGA联合仿真的桥梁,测试数据通过txt文件传递,方便我们做数据对比和性能分析。 手动创建这些文件不仅效率低,还容易出错。特别是当数据量很大时,人工核对几乎不可能。所以我花了些时间把这些功能封装成一个Matlab函数,现在只需要一行代码就能生成三种格式的文件,大大提升了开发效率。 2. 深入理解三种文件格式的特点与差异 2.1 MIF文件格式详解 MIF文件是Memory Initialization F

By Ne0inhk
windows部署的OpenClaw接入飞书机器人

windows部署的OpenClaw接入飞书机器人

文章目录 * 前言 * 一、创建飞书应用 * 1.登录飞书开放平台 * 2.创建企业自建应用 * 3.发布企业自建应用 * 二、OpenClaw配置接入飞书 * 1.安装飞书插件 * 2.配置飞书事件回调 * 3.使用测试 * 总结 前言 OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,目前国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw,本文主要是配置飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,当然配置钉钉接入也可以作为参考。 * windowsWindows 本地(PowerShell)一键部署 OpenClaw * 飞书账号(有飞书开放平台权限的账号) 一、创建飞书应用 1.登录飞书开放平台 1.1 网页访问,

By Ne0inhk
深入解析OpenClaw Skills:从原理到实战,打造专属机器人技能

深入解析OpenClaw Skills:从原理到实战,打造专属机器人技能

一、OpenClaw Skills:机器人行为的“最小执行单元” 1.1 什么是OpenClaw Skills? OpenClaw是面向开源机械爪/小型机器人的控制框架(核心仓库:openclaw/openclaw),旨在降低机器人行为开发的门槛。而Skills(技能) 是OpenClaw框架中对机器人“单一可执行行为”的封装模块——它将机器人完成某一特定动作的逻辑(如“夹取物体”“释放物体”“移动到指定坐标”)抽象为独立、可复用、可组合的代码单元。 简单来说: * 粒度:一个Skill对应一个“原子行为”(如“单指闭合”)或“组合行为”(如“夹取→移动→释放”); * 特性:跨硬件兼容(适配不同型号机械爪)、可插拔(直接集成到OpenClaw主框架)、可扩展(支持自定义参数); * 核心价值:避免重复开发,让开发者聚焦“

By Ne0inhk
龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南 前言:什么是“龙虾机器人”? 在开始部署之前,我们需要明确部署的对象。通常所说的“龙虾机器人”指的是开源项目 OpenClaw(曾用名:Clawdbot、Moltbot)。它由程序员彼得·斯坦伯格开发,是一个开源的、可本地部署的通用型AI代理系统。与ChatGPT等对话式AI不同,OpenClaw被赋予了操作系统的权限:它可以执行终端命令、读写文件、操控浏览器、安装软件,甚至通过MCP协议调用外部工具。 由于其强大的系统操控能力,安全性是部署时需关注的首要问题。官方及社区普遍建议:不要在主力机或存有敏感数据的生产环境直接裸奔部署,最好使用虚拟机、Docker容器或专用硬件(如Mac Mini或AI开发盒子)进行隔离。 第一章:环境准备与核心依赖 在安装OpenClaw之前,必须准备好运行环境。OpenClaw的核心由TypeScript编写,因此Node.js是必不可少的运行环境。此外,根据安装方式的不同,可能还需要Git、Docker或Python环境。 1.1 硬件建议与系统选择 * Linux

By Ne0inhk