在VSCode中通过Copilot链接Figma直接生成完整产品

在VSCode中通过Copilot链接Figma直接生成完整产品

为了快速开发的需要,开发的范式也开始进行快速迭代调整。可以变为使用Figma (特别是他的Make产品,可以提示指导AI直接生成完整的产品原型)生成原型,然后通过设置Figma的MCP, 在开发工具(本文是在VS Code中使用Copilot)链接Figma, 直接快速的生成Figma上的整套产品原型代码(对模型有要求,还是推荐Gemini-Flash, Claude Sonnet之上的模型),尽量一次到位。

详细步骤记录如下,减少大家踩坑。

1. 获取Figma的API Token

在Figma的左上角用户处点击设置(Settings),然后在安全Security下Personal Access Tokens下面生成token所用(注意根据自身要求设置权限,建议read都选上),注意token的最长有效期为90天。

2. 在VS Code Copilot中设置对应的MCP配置

首先确保MCP发现的功能是开着的,在VS Code中打开设置(Ctrl+,或者Cmd+,), 输入chat.mcp确认Discovery是Enabled.

在extentions中输入@mcp figma可以找到官方对于figma的访问支持

注意其中的Install是安装到VSCode的整体目录下, Install in Workspace是安装到当前项目下,可以根据您的情况选择,建议选择Install in Workspace

选择Install in Workspace之后可以在当前项目.vscode/mcp.json下看到具体的Figma配置(也可以忽略上述的步骤,自己直接新建mcp.json文件然后输入详细的配置)

// 默认生成的,当前不可用 "com.figma.mcp/mcp": { "type": "http", "url": "https://mcp.figma.com/mcp", "gallery": "https://api.mcp.github.com", "version": "1.0.3" }

注意这个是默认生成的配置,截止笔者发稿时,这个配置不可用,会报错。将协议和url改为sse依然不可用。需要改为如下的stdio的配置

//改为stdio格式,当前可用 "figma": { "command": "npx", "args": [ "-y", "figma-developer-mcp", "--stdio" ], env": { "FIGMA_API_KEY": "您的Figma API Token" }, "type": "stdio" },

配置之后就可以在工具中具体看到Figma了

3. 链接访问Figma的具体内容

在Figma中选择具体的组件内容, Copy Link

然后在Copilot的Chat对话框中就可以直接输入该链接使用

4. Figma Make项目的特别说明

笔者在使用Figma Make项目的时候,无法具体拷贝其中的组件link, 您可以通过Share下直接Copy整个link

Copilot会访问链接内容进行实现,但其实Make是直接写成的React代码您可以直接点击代码模式,然后将代码下载,最后解压缩代码包,直接拖拽到Copilot的对话框进行参考,效果更好!

愿文章可以帮大家提高工作的效率,祝安!

Read more

唤醒80年代记忆:基于百度地图的一次老式天气预报的WebGIS构建之旅

唤醒80年代记忆:基于百度地图的一次老式天气预报的WebGIS构建之旅

目录 一、省会城市信息构建 1、省会城市空间查询 2、Java后台查询 二、Java省会城市天气查询 1、与百度开放平台集成天气 2、响应对象属性介绍 3、省会天气实况展示 三、WebGIS应用构建 1、背景音乐集成 2、城市标记及天气展示 3、城市轮播 4、成果展示 四、总结 前言         在数字技术飞速发展的今天,我们常常沉浸于各种高科技带来的便捷与震撼之中,却容易忽视那些曾经陪伴我们成长、承载着时代记忆的旧事物。80年代的天气预报,便是这样一份珍贵的文化遗产。它以简洁而质朴的方式,传递着天气信息,也传递着那个时代的气息。那种对自然的敬畏、对信息的渴望,以及一家人共同分享的温馨氛围,都深深烙印在我们的记忆中。然而,随着时间的推移,天气预报的形式已经发生了翻天覆地的变化。高清的画面、精准的数据、个性化的推送……这些现代技术带来的便利固然令人欣喜,但也在一定程度上让我们失去了那份对天气预报本身的纯粹情感。于是,

飞算 JavaAI 深度实战:从老项目重构到全栈开发的降本增效密码

飞算 JavaAI 深度实战:从老项目重构到全栈开发的降本增效密码

飞算 JavaAI 深度实战:从老项目重构到全栈开发的降本增效密码 * 引言 * 正文 * 一、智能引导模块:老项目重构的 “手术刀” 级解决方案 * 1.1 本地化智能分析:IDEA 插件实操演示 * 1.1.1 📌 IDEA 插件安装步骤 * 1.1.1.1 首先打开idea工具,如图: * 1.1.1.2 启动好后,打开菜单`File > Settings `,如图: * 1.1.1.3 点击 `Settings ` 后,弹出对话框,选中 `Plugins` (序号3),在框里输入 `JavaAI`

前端状态管理:Recoil的原子世界

前端状态管理:Recoil的原子世界 毒舌时刻 前端状态管理?Redux不是已经够了吗? "Redux太复杂了,我用Context API就够了"——结果状态管理混乱,性能差, "Zustand简单,我用Zustand"——结果复杂状态难以管理, "Recoil?没听说过,肯定不如Redux"——结果错过了更优雅的状态管理方案。 醒醒吧,Recoil不是Redux的替代品,而是一种更现代化的状态管理方案! 为什么你需要这个? * 原子化状态:将状态拆分为最小的原子单位,更灵活 * 派生状态:通过选择器创建派生状态,减少重复计算 * React集成:与React Hooks无缝集成,使用更自然 * 性能优化:只重新渲染依赖状态变化的组件 反面教材 // 反面教材:使用Context API管理复杂状态 import React, { createContext, useContext, useState, useReducer } from

苹果设备本地AI大模型部署终极方案:Qwen3-32B完整教程

还在为云端AI服务的高延迟和隐私担忧吗?现在,你可以在自己的Mac上运行320亿参数的强大AI模型!Qwen3-32B通过MLX框架的深度优化,让苹果芯片的AI算力得到全面释放。 【免费下载链接】Qwen3-32B-MLX-6bit 项目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-32B-MLX-6bit 为什么选择本地AI部署? 当你想要在MacBook上运行AI助手时,传统方案要么性能不足,要么需要昂贵的云端服务。Qwen3-32B的突破在于: 🎯 完全本地运行:所有数据处理都在你的设备上完成,无需网络连接 🚀 极致性能体验:在M3 Max芯片上实现每秒25token的生成速度 💡 隐私安全保障:敏感数据永远不会离开你的设备 快速上手:5分钟完成部署 环境准备 首先确保你的系统已安装必要的依赖包: pip install --upgrade transformers mlx_lm 基础使用代码 from mlx_lm import load, generate # 加载模型 model, toke