超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

在vscode使用claude mcp吧!

在vscode更新到最新版本(注意,这是前提)后,内置的copilot可以使用mcp了!!!

关于mcp(Model Context Protocol 模型上下文协议),可以参考我的上一篇文章:

MCP个人理解+示例+集成管理+在python中调用示例,给AI大模型装上双手-ZEEKLOG博客

以下是使用教程:

1.点击左下角的齿轮状设置按钮,点击设置

2.在输入面板输入chat.agent.enabled,勾上勾选框

3.点击Ctrl+shift+P,输入reload,点击重新加载窗口,刷新窗口

4.打开copilot后,在右下角将模式改为代理即可。

5.点击工具按钮,开始安装mcp

先去github找到自己想要添加的mcp服务,以blender MCP为例,打开https://github.com/ahujasid/blender-mcp,可以在readme文档里看到详细的安装过程。可以看到,此mcp的安装过程是uvx blender-mcp

点击copilot下方的工具按钮

可以看到,我已经安装一堆mcp了,点击添加更多工具

选择添加MCP服务器

选择命令

填入uvx blender-mcp,回车确认

给mcp服务起个名称,回车确认

点击用户设置,这样所有的工作区都可以访问

配置完成,自动弹出配置文件窗口,点击蓝色的启动按钮

启动成功

6.安装 Blender 插件

(1)下载插件文件
从本仓库下载 addon.py 文件。

(2)打开 Blender
启动 Blender 应用程序。

(3)进入插件管理界面
点击顶部菜单栏的 编辑 (Edit) > 偏好设置 (Preferences) > 插件 (Add-ons)

(4)安装插件
点击 “安装...” (Install...) 按钮,然后选择下载的 addon.py 文件。

(5)启用插件
在插件列表中找到 “界面: Blender MCP” (Interface: Blender MCP),勾选旁边的复选框以启用。

(6)点击n,选择BlenderMCP,点击连接

点击获取免费试用的api key

7.开始使用copilot进行3d建模

先测试一下mcp,可见运行正常

然后输入提示词:使用blender mcp,建模:一条龙守护一袋金币。我在blender里面配置了api

这时copilot会发出任务请求,我们需要点同意。可见,已经成功了!

打开blender看一下:可以看到,建模成功了?

附录:前往网站生成api

访问fal.ai | The generative media platform for developers

点击 API key

点击Add key

将生成的key复制粘贴到相应位置,选择fal.ai

该网站注册后会送一美元的余额,想多次使用就得花钱了

生成一次0.4美金

另外一个模型申请网站是Get started with Rodin | Hyper3D API Documentation,但是需要成为支持者才能获取api,最便宜的都要12美金一个月。

Read more

把 AI 学长“塞“进 QQ 群!我用 OpenClaw 为班级打造 24 小时智能助教

把 AI 学长“塞“进 QQ 群!我用 OpenClaw 为班级打造 24 小时智能助教

欢迎来到我的博客,代码的世界里,每一行都是一个故事 🎏:你只管努力,剩下的交给时间 🏠 :小破站 把 AI 学长"塞"进 QQ 群!我用 OpenClaw 为班级打造 24 小时智能助教 * 前言:一个被 QQ 消息淹没的下午 * 什么是 OpenClaw? * 第一步:用 Lighthouse 应用模板一键部署 OpenClaw * 第二步:开放防火墙端口 * 第三步:配置 AI 模型与 QQ 通道 * 第四步:在 QQ 开放平台注册并实名认证 * 第五步:创建机器人「AI 学长」 * 第六步:获取 AppID

By Ne0inhk
Lada v0.11.0最新版更新 本地一键启动包教程:AI去马赛克神器实测 支持 Nvidia显卡和Intel Arc GPU

Lada v0.11.0最新版更新 本地一键启动包教程:AI去马赛克神器实测 支持 Nvidia显卡和Intel Arc GPU

Lada v0.11.0最新版更新 本地一键启动包教程:AI去马赛克神器实测 Lada去马赛克工具、AI视频去马赛克、本地AI视频修复、一键启动AI工具、视频像素恢复神器 下载地址:https://pan.quark.cn/s/7819816715d6?pwd=Pnbx 之前在网上刷视频的时候,经常会遇到一个特别让人崩溃的问题——关键画面总被打上厚厚的马赛克。 想认真看内容,却只能看到一堆像素块,体验直接拉满折磨值。 对于图片马赛克 可以参考我的这篇文章来去除 【AI图片编辑模型】Qwen-Image-Edit-2511 十字鱼一键整合包分享|本地无限制生成 ai换装必备 4G显存可用 我前前后后试过不少所谓的去码工具,不是效果拉胯,就是要上传视频到云端处理,说实话这种私密视频谁敢随便传?直到最近发现了这个本地神器——Lada 本地一键启动包,才算是真正解决问题。 它直接在电脑本地跑AI模型,不联网、不上传、不限制,用起来相当舒服。 下载地址:https://pan.

By Ne0inhk
量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的"三板斧" 摘要:做嵌入式AI开发的同学,大概率都遇到过这样的困境:训练好的AI模型(比如CNN),在PC上用TensorFlow/PyTorch跑起来流畅丝滑,可移植到单片机、MCU等边缘设备上,要么内存爆掉,要么推理延迟高到无法使用——毕竟边缘设备的资源太有限了:几百KB的RAM、几MB的Flash、没有GPU加速,甚至连浮点运算都要靠软件模拟。这时,依赖庞大的深度学习框架就成了“杀鸡用牛刀”,甚至根本无法运行。而C语言,作为嵌入式开发的“母语”,凭借其极致的性能控制、内存可控性和无 runtime 依赖的优势,成为边缘设备AI推理引擎的最佳选择。但纯C语言实现AI推理,绝不是简单地“用C重写框架代码”,关键在于掌握三大核心优化技术——这就是我们今天要讲的AI推理“三板斧”:量化、算子融合、内存映射。 它们三者协同作用,能从“体积、速度、内存”三个维度彻底优化AI推理性能:

By Ne0inhk
Linux:早期操作系统的系统调用

Linux:早期操作系统的系统调用

相关阅读 Linuxhttps://blog.ZEEKLOG.net/weixin_45791458/category_12234591.html?spm=1001.2014.3001.5482 简介         本文将以Linux1.0为例说明早期操作系统的系统调用过程。         Linux1.0总共提供了135个系统调用(其中一些是保留或未实现),可以在源码路径linux-1.0/include/linux/sys.h下找到系统调用函数声明,在源码路径linux-1.0/include/linux/unistd.h下找到系统调用号定义。         下面列举出了一些系统调用的相关信息。 系统调用号系统调用函数名系统调用函数原型含义定义位置0sys_setupasmlinkage int sys_setup(void * BIOS)完成系统设备初始化(磁盘)、加载 RAM 盘、挂载根文件系统。linux-1.0/drivers/

By Ne0inhk