UnityMCP+Claude+VSCode,构建最强AI游戏开发环境

UnityMCP+Claude+VSCode,构建最强AI游戏开发环境
请添加图片描述

请添加图片描述

前言

  • 本篇文章来介绍使用 UnityMCP+Claude+VSCode,打造一个更智能、高效的游戏开发工作流。
  • 借助MCP工具,Claude可以直接与Unity编辑器进行双向指令交互,开发者则可以直接使用自然语言进行Unity游戏开发。
  • 这一组合充分利用了AI的代码生成、问题诊断与创意辅助能力,极大提升了Unity项目的开发效率与质量。

一、UnityMCP+Claude+VSCode,构建最强AI 游戏开发环境

1.1 介绍

在之前文章中已经详细介绍过在使用UnityMCP之前需要做的步骤,包括MCP的安装和配置都有介绍。
【Unity-AI开发篇】| Unity-MCP最新指南:让AI接管游戏开发

下面这几样还是必须安装的,这里再提一下:

  • Git CLI:用于克隆服务器代码。下载 Git
  • Python:3.12 或更高版本。下载 Python
  • Unity Hub 及编辑器:2020.3 LTS 或更高版本。下载 Unity
  • uv(Python 包管理器):pip install uv # 或参考:https://docs.astral.sh/uv/getting-started/installation/
  • 支持MCP的AI客户端:(Claude Desktop、Cursor、VSCode等)

上篇文章介绍的是在Trae中使用UnityMCP,本篇文章则着重介绍一下在VSCode中接入Claude和UnityMCP进行游戏开发。

1.2 使用说明及下载

除了本文使用的CoplayDev UnityMCP之外,还有很多其它UnityMCP可以使用,后面有时间会看下别的MCP,在使用和功能上有什么差异。

工具地址介绍
unity-mcp(本文使用)https://github.com/CoplayDev/unity-mcpstar:7.2k,持续更新中
Unity-MCPhttps://github.com/IvanMurzak/Unity-MCPstar:1.4k
CoderGamester - mcp-unityhttps://github.com/CoderGamester/mcp-unitystar:1.5k
zoucdr - unity3d-mcphttps://github.com/zoucdr/unity3d-mcp/tree/masterstar:44

二、VSCode配置

2.1 连接UnityMCP

在Unity中通过 Window → MCP For Unity 打开相关面板,Client选择VSCode然后点击Start Server开启连接。

在这里插入图片描述

然后在VSCode中会出现一个MCP服务器(unityMCP),这个时候点击启动服务器,查看控制台输出一切正常。

在这里插入图片描述
在这里插入图片描述

此时跟VSCode内置的AI聊天可以看到UnityMCP已连接完成。

在这里插入图片描述

如果不打算连接Claude,那此时就可以通过VSCode进行Unity的AI开发了,后面来接入Claude进行使用。

2.2 在VSCode中添加插件

在VSCode中添加UnityClaude Code For VS Code插件,如下所示:

在这里插入图片描述

此时在VSCode中会出现Claude的对话按钮,点击这个按钮即可打开ClaudeAI对话框。

在这里插入图片描述

如果Claude没安装的话应该不能使用Claude对话,下面简单介绍下Claude的安装。

2.3 Claude安装

# 1. 检测 npm 的版本(需要安装node.js)> npm -v # 2. 查看 npm 的全局安装路径(可选) > npm config get prefix # 3. 返回的 npm 全局安装路径(不同的用户不一样)> D:\mywork\node-v23.8.0\node_global # 4.修改全局安装路径(可选) > npm config set prefix "D:\npm-global"# 5. 将 npm 的全局安装路径配置到系统的 PATH 变量。(可选)# 如果已经配置则忽略,如有不懂的可自行查找资料。# 为什么需要配置到 PATH 变量,这是因为 npm 会将 claude 命令安装到全局安全环境路径下# 配置了 PATH 之后,则可以在系统的任意控制台执行 claude 命令# 6. 执行 npm 命令安装 claude code cli。(关键)> npm install -g @anthropic-ai/claude-code # 7.验证安装> claude --version > claude --help # 等待上面的安装完毕即可,如果因为网络原因无法安装,则可以调整 npm 的镜像地址到国内。
在这里插入图片描述

为了方便地在不同API Key之间切换 ,这里推荐下载一个cc-switch使用。

github 安装地址:https://github.com/farion1231/cc-switch/releases

安装完成之后,在cc-switch中配置好自己购买的的模型即可。

2.4 VSCode MCP配置

在自己的Unity工程目录下创建一个.mcp.json文件,文件内容如下:

{"mcpServers":{"unityMCP":{"type":"http", "url":"http://localhost:8080/mcp"}}}
在这里插入图片描述


这一步必须创建这个文件,不然Claude检测不到UnityMCP,就没办法使用了。

2.5 使用Claude开发功能

第一次使用Claude时,在Claude对话窗口中先执行/init,这样AI就会输出更符合自己项目的功能。

可以在对话框中输入 /mcp 选择MCP server 查看UnityMCP是否连接正常。

如下图所示即可正常使用:

在这里插入图片描述

在对话框中尝试输入这样的提示词:Create a red, blue and yellow cube

在这里插入图片描述


在这里插入图片描述

或者尝试这样说:帮我在AIScene中创建一个平面和一个角色,角色支持WASD移动,移动速度为5

在这里插入图片描述


在这里插入图片描述

这样角色就创建好了,运行之后按WASD就会按指定速度进行前后左右移动。

这样就算跑通了UnityMCP+Claude+VSCode开发游戏的整个流程,后面就可以直接在对话框通过自然语言让AI来开发游戏了。

而Claude强大的地方在于我们可以添加各种SkillMCP,定制化开发自己的游戏项目。

Claude+MCP 把AI从"聊天机器人"变成了能操作电脑上各种工具的智能体,让我们可以把AI当做自己的同事,让其帮自己干活~


三、相关问题

在第一次使用时遇到的问题可能是MCP和Claude的配置问题,导致使用Claude对话时没办法正确调用unityMcp的功能,可能会显示MCP未连接。

1.Unity项目根目录添加 .mcp.json 文件,内容如下所示:

{"mcpServers":{"unityMCP":{"type":"http","url":"http://localhost:8080/mcp"}}}

2.在vscode的全局目录 C:\Users\Administrator\AppData\Roaming\Code\User 下配置一个 mcp.json 文件,这样所有的项目工程都能读到这个mcp工具的配置。

{"mcpServers":{"unityMCP":{"url":"http://localhost:8080/mcp","type":"http"}},"servers":{"unityMCP":{"url":"http://localhost:8080/mcp","type":"http"}}}

3.如果Claude一直检测不到UnityMCP的连接,可以直接在对话框中跟它对话,问AI为什么没有连接,然后一步步引导AI去排查原因即可。

4.Claude关于MCP连接的文档。通过 MCP 将 Claude Code 连接到工具:https://code.claude.com/docs/zh-CN/mcp

5.Python和uv没办法正常使用。在Unity中点击StartServer时不能弹出正确的弹窗,而是提示无法打开指定的文件之类的内容,则需要看下python的环境变量有没有配置,或者把报错内容直接发给AI进行诊断排查即可。


总结

  • UnityMCP + Claude + VSCode 的组合,将AI的认知能力与Unity的创作能力深度融合,重新定义了游戏开发的效率边界。
  • 无论是独立开发者还是小型团队,都能借助这一环境快速验证想法、减少技术债务,将更多精力聚焦于创意本身。
  • 未来随着AI模型的进化与MCP生态的完善,这一模式有望成为游戏开发的标准配置。
  • 后面会尝试全程使用这套配置进行小游戏开发,验证不写代码完成整个游戏的开发可行性。

🎬 博客主页:https://xiaoy.blog.ZEEKLOG.net🎥 本文由 呆呆敲代码的小Y 原创 🙉🎄 学习专栏推荐:Unity系统学习专栏🌲 游戏制作专栏推荐:游戏制作🌲Unity实战100例专栏推荐:Unity 实战100例 教程🏅 欢迎点赞 👍 收藏 ⭐留言 📝 如有错误敬请指正!📆 未来很长,值得我们全力奔赴更美好的生活✨------------------❤️分割线❤️-------------------------
请添加图片描述
请添加图片描述
请添加图片描述
请添加图片描述

资料白嫖,技术互助

学习路线指引(点击解锁)知识定位人群定位
🧡 Unity系统学习专栏 入门级本专栏从Unity入门开始学习,快速达到Unity的入门水平
💛 Unity实战类项目 进阶级计划制作Unity的 100个实战案例!助你进入Unity世界,争取做最全的Unity原创博客大全。
❤️ 游戏制作专栏 难度偏高分享学习一些Unity成品的游戏Demo和其他语言的小游戏!
💚 游戏爱好者万人社区 互助/吹水数万人游戏爱好者社区,聊天互助,白嫖奖品
💙 Unity100个实用技能Unity查漏补缺针对一些Unity中经常用到的一些小知识和技能进行学习介绍,核心目的就是让我们能够快速学习Unity的知识以达到查漏补缺

Read more

【GitHub项目推荐--CopilotKit:AI Copilot前端开发框架】

简介 CopilotKit是一个开源的前端AI助手开发框架,专门为构建AI Copilot、聊天机器人和应用内AI代理提供React UI组件和优雅的基础设施。该项目采用现代化的前端技术栈,旨在简化和加速AI功能的集成过程,让开发者能够快速在应用中添加智能交互能力。CopilotKit框架设计注重开发体验和性能优化,支持从简单聊天界面到复杂AI代理的各种应用场景。 核心价值: * 开发效率:分钟级集成AI功能,大幅缩短开发周期 * 框架无关:支持React、Next.js、AGUI等多种前端框架 * 生产就绪:提供企业级UI组件,内置安全防护机制 * 高度可定制:支持从底层API到UI组件的全方位定制 技术定位:CopilotKit填补了AI后端能力与前端用户体验之间的空白。通过提供标准化的组件和API,它让前端开发者能够轻松集成复杂的AI功能,而无需深入了解底层AI技术细节。其模块化架构平衡了开箱即用的便利性和深度定制的灵活性。 主要功能 1. 现代化React UI组件 提供完整的Copilot侧边栏组件,支持深度样式定制。可配置的聊天界面,适应不同应用场景

一键部署:用OpenAI API格式调用20+主流大模型(ChatGLM/文心一言/通义千问等)

一键部署:用OpenAI API格式调用20+主流大模型(ChatGLM/文心一言/通义千问等) 1. 为什么你需要一个统一的API入口 你是不是也遇到过这些情况: * 想在本地部署一个AI助手,却发现每个大模型都有自己的API格式——ChatGLM要填/chat路径,文心一言要走/v2.1/bce/wenxinworkshop/ai/generate,通义千问又是一套完全不同的参数结构; * 项目里已经写好了OpenAI调用逻辑,现在想换成国产模型,结果要重写所有请求封装、错误处理、流式响应解析; * 同时测试多个模型效果,却要在代码里反复切换不同SDK、不同认证方式、不同超时配置; * 更头疼的是,有些模型需要代理、有些要翻墙、有些必须用HTTPS、有些对请求头敏感——光是环境适配就耗掉半天。 这些问题,其实都指向同一个核心痛点:模型太多,接口太碎,开发太累。 而今天要介绍的这个镜像,就是为了解决这个问题而生的——它不训练模型,不优化性能,不做任何推理计算。它只做一件事:把20多个主流大模型,全部“

LLaMA Factory 从入门到精通,一篇讲完

LLaMA Factory 从入门到精通,一篇讲完

目录 一、LLaMA-Factory 简介 二、安装部署 三、数据微调 1、数据集的建立 2、数据集格式 3、模型参数 4、开始运行 5、导出模型 四、webui 评估预测与对话 导出 五、SFT 训练 命令行 六、LoRA 合并 合并 量化 七、推理 原始模型推理配置 微调模型推理配置 多模态模型 批量推理 八、评估 通用能力评估 NLG 评估 评估相关参数 一、LLaMA-Factory 简介 LLaMA Factory 是一个简单易用且高效的大型语言模型(Large

DeepSeek-R1-Distill-Llama-8B在Ollama上的最佳实践

DeepSeek-R1-Distill-Llama-8B在Ollama上的最佳实践 你是否试过在本地快速跑起一个真正擅长数学推理和代码生成的开源大模型,既不用配CUDA环境,也不用写几十行部署脚本?DeepSeek-R1-Distill-Llama-8B 就是这样一个“开箱即用但能力不妥协”的选择——它不是轻量玩具,而是经过严格蒸馏、在AIME和MATH等硬核基准上稳定超越GPT-4o的8B级推理模型。而Ollama,正是让它从镜像变成你日常生产力工具最平滑的桥梁。 本文不讲抽象原理,不堆参数表格,只聚焦一件事:如何在Ollama中真正用好这个模型——从零启动、高效提问、规避常见陷阱、榨取它在数学推导、代码生成和逻辑分析上的全部潜力。 我们全程基于ZEEKLOG星图镜像广场提供的预置镜像 DeepSeek-R1-Distill-Llama-8B,所有操作均可在浏览器中完成,无需命令行、不装依赖、不碰Docker。哪怕你昨天才第一次听说“大模型”,今天也能跑通一条完整的推理链。 1. 为什么是DeepSeek-R1-Distill-Llama-8B?——能力与实用的平衡点 很