超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

在vscode使用claude mcp吧!

在vscode更新到最新版本(注意,这是前提)后,内置的copilot可以使用mcp了!!!

关于mcp(Model Context Protocol 模型上下文协议),可以参考我的上一篇文章:

MCP个人理解+示例+集成管理+在python中调用示例,给AI大模型装上双手-ZEEKLOG博客

以下是使用教程:

1.点击左下角的齿轮状设置按钮,点击设置

2.在输入面板输入chat.agent.enabled,勾上勾选框

3.点击Ctrl+shift+P,输入reload,点击重新加载窗口,刷新窗口

4.打开copilot后,在右下角将模式改为代理即可。

5.点击工具按钮,开始安装mcp

先去github找到自己想要添加的mcp服务,以blender MCP为例,打开https://github.com/ahujasid/blender-mcp,可以在readme文档里看到详细的安装过程。可以看到,此mcp的安装过程是uvx blender-mcp

点击copilot下方的工具按钮

可以看到,我已经安装一堆mcp了,点击添加更多工具

选择添加MCP服务器

选择命令

填入uvx blender-mcp,回车确认

给mcp服务起个名称,回车确认

点击用户设置,这样所有的工作区都可以访问

配置完成,自动弹出配置文件窗口,点击蓝色的启动按钮

启动成功

6.安装 Blender 插件

(1)下载插件文件
从本仓库下载 addon.py 文件。

(2)打开 Blender
启动 Blender 应用程序。

(3)进入插件管理界面
点击顶部菜单栏的 编辑 (Edit) > 偏好设置 (Preferences) > 插件 (Add-ons)

(4)安装插件
点击 “安装...” (Install...) 按钮,然后选择下载的 addon.py 文件。

(5)启用插件
在插件列表中找到 “界面: Blender MCP” (Interface: Blender MCP),勾选旁边的复选框以启用。

(6)点击n,选择BlenderMCP,点击连接

点击获取免费试用的api key

7.开始使用copilot进行3d建模

先测试一下mcp,可见运行正常

然后输入提示词:使用blender mcp,建模:一条龙守护一袋金币。我在blender里面配置了api

这时copilot会发出任务请求,我们需要点同意。可见,已经成功了!

打开blender看一下:可以看到,建模成功了?

附录:前往网站生成api

访问fal.ai | The generative media platform for developers

点击 API key

点击Add key

将生成的key复制粘贴到相应位置,选择fal.ai

该网站注册后会送一美元的余额,想多次使用就得花钱了

生成一次0.4美金

另外一个模型申请网站是Get started with Rodin | Hyper3D API Documentation,但是需要成为支持者才能获取api,最便宜的都要12美金一个月。

Read more

Claude Code 完整指南(四):Hooks(自动化事件触发)

文章目录 * 1. 引言 * 2. Hooks 是什么? * 3. Hooks 配置(用户级 vs 项目级) * 4. 八种事件类型汇总 * 5. 命令型 Hooks * 5.1 基础语法(最常用) * 5.2 Hook 能拿到什么上下文? * 5.3 退出码怎么控制“阻断/不阻断”? * 6. 提示型 Hooks * 6.1 基础语法 * 5.2 响应格式(核心) * 7. 案例模板 * 7.1 案例:SessionStart 做环境体检(不阻断) * 7.2

By Ne0inhk
Flutter for OpenHarmony:Flutter 三方库 xdg_directories 遵循 Linux 系统目录规范的路径指南(鸿蒙底座兼容性探索)

Flutter for OpenHarmony:Flutter 三方库 xdg_directories 遵循 Linux 系统目录规范的路径指南(鸿蒙底座兼容性探索)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 随着 OpenHarmony 在桌面和平板设备上的不断普及,以及其底层与类 Unix / Linux 系统深厚的渊源,开发者在处理本地存储路径时,不仅要考虑手机端的“沙箱”,也需要考虑符合行业标准的系统目录规范(XDG Base Directory Specification)。 xdg_directories 是一个专门用于获取 Linux 系统环境变量定义的标准目录位置的工具库。它能帮你准确定位诸如:配置文件放在哪?缓存数据放在哪?虽然鸿蒙手机端有其特有的路径设计,但在鸿蒙桌面端或利用鸿蒙内核进行 Linux 兼容层开发时,它具有不可替代的规范指导意义。 一、核心概念:XDG 规范图解 XDG 规范定义了应用程序存储不同类型数据的位置,避免了在用户主目录下乱丢文件的乱象。 /home/user $XDG_CONFIG_HOME (.config) $XDG_CACHE_HOME

By Ne0inhk
OpenClaw(原Clawdbot/Moltbot):开年最火开源桌面Agent 完整部署指南(零门槛 + 飞书/钉钉集成 + 自动化实战)

OpenClaw(原Clawdbot/Moltbot):开年最火开源桌面Agent 完整部署指南(零门槛 + 飞书/钉钉集成 + 自动化实战)

一、前置准备(零门槛,普通电脑可跑,命令直接复制) 1.1 硬件要求(无最低配置限制,适配所有办公电脑) * CPU:≥2核(Intel i3/i5、AMD Ryzen 3/5及以上) * 内存:≥4G(推荐8G,避免多任务卡顿) * 存储:SSD剩余≥10G(仅存储镜像/配置,无大文件) * 网络:可正常联网(国内网络即可,已适配国内镜像源) 1.2 软件要求(固定版本,避免兼容问题) * 操作系统:Windows10+/macOS12+/Linux(Ubuntu22.04最佳,Windows推荐WSL2) * 核心工具:Docker≥24.0 + Docker

By Ne0inhk

Ubuntu 本地部署 OpenClaw:接入 Ollama 推理 + 飞书通道(可直接复现)

Ubuntu 本地部署 OpenClaw:接入 Ollama 推理 + 飞书通道(可直接复现) 摘要 本文记录一次从零开始在空白 Ubuntu 服务器部署 OpenClaw 的完整过程:本地使用 Ollama 作为推理引擎,飞书作为消息通道。包含环境准备、安装命令、配置步骤、连通性验证、常见报错排查和运维建议,适合个人开发者快速落地私有化 AI Agent。 目录 1. 部署目标与架构 2. 环境准备 3. 安装 Ollama(本地推理) 4. 安装 OpenClaw 5. 配置 OpenClaw 使用 Ollama 6. 配置飞书通道 7. 启动与验证 8. 常见问题 FAQ

By Ne0inhk