在VSCode中通过Copilot链接Figma直接生成完整产品

在VSCode中通过Copilot链接Figma直接生成完整产品

为了快速开发的需要,开发的范式也开始进行快速迭代调整。可以变为使用Figma (特别是他的Make产品,可以提示指导AI直接生成完整的产品原型)生成原型,然后通过设置Figma的MCP, 在开发工具(本文是在VS Code中使用Copilot)链接Figma, 直接快速的生成Figma上的整套产品原型代码(对模型有要求,还是推荐Gemini-Flash, Claude Sonnet之上的模型),尽量一次到位。

详细步骤记录如下,减少大家踩坑。

1. 获取Figma的API Token

在Figma的左上角用户处点击设置(Settings),然后在安全Security下Personal Access Tokens下面生成token所用(注意根据自身要求设置权限,建议read都选上),注意token的最长有效期为90天。

2. 在VS Code Copilot中设置对应的MCP配置

首先确保MCP发现的功能是开着的,在VS Code中打开设置(Ctrl+,或者Cmd+,), 输入chat.mcp确认Discovery是Enabled.

在extentions中输入@mcp figma可以找到官方对于figma的访问支持

注意其中的Install是安装到VSCode的整体目录下, Install in Workspace是安装到当前项目下,可以根据您的情况选择,建议选择Install in Workspace

选择Install in Workspace之后可以在当前项目.vscode/mcp.json下看到具体的Figma配置(也可以忽略上述的步骤,自己直接新建mcp.json文件然后输入详细的配置)

// 默认生成的,当前不可用 "com.figma.mcp/mcp": { "type": "http", "url": "https://mcp.figma.com/mcp", "gallery": "https://api.mcp.github.com", "version": "1.0.3" }

注意这个是默认生成的配置,截止笔者发稿时,这个配置不可用,会报错。将协议和url改为sse依然不可用。需要改为如下的stdio的配置

//改为stdio格式,当前可用 "figma": { "command": "npx", "args": [ "-y", "figma-developer-mcp", "--stdio" ], env": { "FIGMA_API_KEY": "您的Figma API Token" }, "type": "stdio" },

配置之后就可以在工具中具体看到Figma了

3. 链接访问Figma的具体内容

在Figma中选择具体的组件内容, Copy Link

然后在Copilot的Chat对话框中就可以直接输入该链接使用

4. Figma Make项目的特别说明

笔者在使用Figma Make项目的时候,无法具体拷贝其中的组件link, 您可以通过Share下直接Copy整个link

Copilot会访问链接内容进行实现,但其实Make是直接写成的React代码您可以直接点击代码模式,然后将代码下载,最后解压缩代码包,直接拖拽到Copilot的对话框进行参考,效果更好!

愿文章可以帮大家提高工作的效率,祝安!

Read more

【魅影AI远程控制】:基于WebRTC+AI的智能远程控制解决方案

【魅影AI远程控制】:基于WebRTC+AI的智能远程控制解决方案

x 魅影AI远程控制:基于WebRTC+AI的智能远程控制解决方案 📖 前言 在移动互联网时代,远程控制技术已经成为企业IT支持、无障碍辅助、智能家居等领域的重要工具。传统的远程控制方案往往需要用户手动操作,效率低下。今天,我将为大家介绍一款革命性的魅影AI远程控制应用,它通过WebRTC实时通信和AI智能识别技术,实现了"语音指令→智能理解→自动执行"的完整闭环,让远程控制变得像对话一样简单。 🎯 项目概述 什么是魅影AI远程控制? 魅影AI远程控制是一款双端合一的Android应用,集成了远程控制、AI语音助手、OCR识别等多项前沿技术。它最大的特点是智能化:用户只需说出需求,AI就能理解意图并自动完成操作。 核心价值 传统远控:手动点击、滑动 → 繁琐、低效 AI远控:语音命令、智能识别、自动执行 → 简单、高效、智能 一句话描述: "说出你的需求,AI帮你完成" -

从 Renderless 架构到 WebAgent:我的 OpenTiny 前端智能化实战之路

从 Renderless 架构到 WebAgent:我的 OpenTiny 前端智能化实战之路

一、缘起:为什么我要给 DialogBox 加上"resizable"能力? 说起来挺有意思的。作为一名在企业级应用开发一线摸爬滚打多年的前端,DialogBox 这个组件我用了不下百次。但每次用的时候,总觉得差点意思——用户想自己调整弹窗大小?不好意思,不支持。 直到我参加了 OpenTiny NEXT 前端智能化系列直播,听到老师讲 AI Agent 和 WebMCP 的时候,我突然意识到:这不就是我一直在等的那个契机吗? 传统的组件开发模式是:开发者定义好所有功能,用户只能被动接受。但在 AI 时代,组件应该是"可对话"的——用户说"我想把这个弹窗调大一点",AI 就能理解意图并调用相应的 API。 但要实现这个愿景,首先得让组件具备足够的能力。

『AI辅助Skill』掌握三大AI设计Skill:前端独立完成产品设计全流程

『AI辅助Skill』掌握三大AI设计Skill:前端独立完成产品设计全流程

📣读完这篇文章里你能收获到 1. 🎨 掌握ASCII Design快速验证产品想法的方法 2. 🖼️ 学会Wireframe Design生成专业SVG线稿 3. 💻 了解三种Frontend Design Skills的选择策略 4. 🚀 掌握完整OPC工作流,1-2天完成产品开发 文章目录 * 前言 * 一、三大AI设计Skill工作流 * 1.1 传统流程的核心痛点 * 1.2 AI辅助工作流 * 二、ASCII与Wireframe设计技能 * 2.1 ASCII Design Skill —— 秒级验证产品想法 * 2.2 Wireframe Design Skill —— 专业级设计原型 * ASCII vs SVG:如何选择 * 核心特性 * 工作流程 * 三、Frontend Design Skills选择策略 * 3.1

AI智能体|扣子(Coze)全网最详细讲解(保姆级)

AI智能体|扣子(Coze)全网最详细讲解(保姆级)

没有任何编程基础?没关系! 这篇保姆级教程将手把手教你用Coze平台打造能搜索新闻、分析数据、创作内容的AI智能体,让你的工作效率提升300%。从此告别加班,让AI成为你最强力的工作伙伴! 什么是AI智能体?一个简单的解释 想象一下,你需要在知乎上回答一个专业问题。传统方式是:搜索资料、制定大纲、编写内容、校对修改,耗时耗力。 而单纯使用大模型(如ChatGPT)直接提问,又常常得到不够准确或过时的答案。为什么?因为: * 大模型无法获取最新信息 * 缺乏规划能力 * 没有持续记忆 AI智能体就是解决这些问题的答案!它不只是一个聊天机器人,而是一个可以自主完成复杂任务的数字助手。 AI智能体 = 大模型(LLM) + 规划能力 + 记忆功能 + 工具使用 简单理解:如果把智能体比作人类,大模型是"大脑",规划和记忆是"思考方式",工具则是"手脚"