玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

目录

本轮目标

具体实践

一、开启 Figma 的 MCP 服务器

二、Claude Code 连接 Figma MCP

三、Claude Code 代码实现 Figma 设计稿


本轮目标

本轮目标是制作数字化大屏的一个前端组件,要求和UI设计图还原度达到1:1。

本轮目标需要我们提前准备好figma客户端,且登录帐号具有开发模式的权限(没有可以去某夕)。Claude Code 就不必多说,没有安装的同学参考我的上一篇文章《玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)》完成安装,通过专属链接注册,可以额外领取100美金的免费使用额度。

安装教程参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024


具体实践

一、开启 Figma 的 MCP 服务器

打开 Figma 桌面客户端(只支持在桌面端中设置 Figma MCP Server),如图所示选中 Preferences -> Enable Dev Mode MCP Server 启动 MCP Server。

如果访问 localhost:3845/sse 有如下页面,说明 Figma 的 MCP 服务开启成功。

Figma MCP 支持 5 个 Tool:

ToolFunction
get_code获取设计稿中的代码
get_image获取设计稿中的图片
get_variable_defs获取某个变量
get_code_connect_map获取代码连接映射
create_design_system_rules创建设计系统规则

二、Claude Code 连接 Figma MCP

首先保证电脑上已经安装 claude code,没有安装的参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024

已经安装成功的进行下面的步骤:

项目文件夹目录下 CMD 运行:

claude mcp add --transport sse figma-dev-mode-mcp-server http://127.0.0.1:3845/sse

启动 Claude Code:

claude --dangerously-skip-permissions

查看 MCP 是否安装成功:

/mcp

如果显示未连接,可以回车之后选择 Reconnect 一下,连接成功如图:

如果需要项目特定配置,可以在项目目录下新建 .mcp.json 文件,将 Figma MCP Server 和 context7 MCP Server 的配置写入:

{   "mcpServers": {     "Figma": {       "url": "http://127.0.0.1:3845/sse"     },     "context7": {       "command": "npx",       "args": ["-y", "@upstash/context7-mcp@latest"]     }   } }

三、Claude Code 代码实现 Figma 设计稿

先测试 Claude Code 能否读取到 Figma 的设计稿。

选中 Figma 设计稿中的某一块(或复制 Figma 中的图层链接)。

在 Claude Code 里提问,是否可以抓取到对应模块的 CSS:

告诉我figma里选中的模块的css

可以看到,CSS 信息被顺利抓取。

下面,我们来进行代码的整体编写,将 Figma 设计稿转换成代码实现。

根据figma 设计稿当前选中的图层,遍历里面所有的组件,对图片逐一下载,对每个子组件逐一读取,将figma设计稿转换为html代码实现,创建index.html

我创建了一个静态 html 页面来实现这个效果,如果是vue/react/angular的页面,告诉 claude code 即可。

由于元素过多,claude code 的第一版一般都和 ui 大相径庭。后续需要我们逐个组件把 css 喂给 claude code。

最终效果:

各个组件都和原型 1:1 复刻,后面再微调组件间距离即可。因为大屏太过复杂,调了很久,但是也节省了非常大的时间。

下面,我们再去复刻一个简单的移动端的 UI 案例。

还是先选中我们要实现的图层。

告诉 claude code,我们要遍历这个图层中的所有组件,创建一个 html 文件,实现这个组件。

帮我创建一个test.html,实现我选中的图层及内容,要求遍历每一个组件,获取他们的样式和svg等

初版很快就被实现了出来:

下面,我们需要依次选中figma中的每个子组件,再把它们的 css 喂给 claude code。

最终效果:

再实现一个简单的,目标如下:

初版如图:

喂给 claude code 更多 css 和 svg 信息:

最终结果如图:

经过这几个例子,我们可以看到 claude code 结合 figma 的 mcp 之后,功能变得多么的强大,期待使用 claude code 做出更多出色的作品!!


加入社区

Claude Code 开发者交流社区

福利多多,立即加入 👇 👇 👇 

Claude Code 中国开发者交流社区

期待与你的思维碰撞,共同奔赴AI开发的浪潮!

Read more

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80%

PyTorch 2.6+Stable Diffusion联动教程:云端GPU双开省80% 你是不是也遇到过这种情况:作为一名数字艺术生,手头有创意、有想法,但一打开本地电脑跑Stable Diffusion生成一张图就得等半小时,显存还经常爆掉?更别提想同时用PyTorch训练个小模型了——8G显存根本不够分。我试过很多方法,最终发现在云端用GPU资源双开PyTorch和Stable Diffusion,不仅流畅运行,还能省下至少80%的成本。 这篇文章就是为你量身打造的实战指南。我会带你一步步在ZEEKLOG星图平台部署预装PyTorch 2.6和Stable Diffusion的镜像环境,实现两个AI工具并行运行,彻底告别卡顿与等待。整个过程不需要你懂复杂的命令行操作,所有步骤我都整理成了可复制粘贴的代码块,小白也能轻松上手。 学完这篇教程后,你能做到: - 在云端一键部署支持PyTorch 2.6 + Stable Diffusion的完整环境 - 同时运行图像生成和模型训练任务,互不干扰 - 掌握关键参数设置,提升出图质量和训练效率 - 理解为什么云端方案比本地更省钱、更

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026届毕业生存命指南:6大权威查AIGC检测入口+降AI率神器实测“红黑榜”

2026年的毕业季比往年都要“硬核”。 随着《学位法》正式施行,“人工智能写作”已被明确列为学术不端。 现在的毕业流程,不仅要看查重率,还要强行附带AIGC检测报告。如果AI率过高,轻则退回重改,重则影响学位。 为了帮大家少走弯路,我整理了目前国内高校认可度最高的6大检测入口,以及查出高标后的降AI神器实测榜单,帮助大家快速降低论文ai率。建议点赞收藏! 一、 权威自测:6大主流AIGC检测平台入口 不同学校、不同学科适配的工具不同,请根据你的进度“对号入座”: 1、维普 AIGC 检测(中文自查首选) * 特点: 擅长理工科逻辑分析,能识别公式推导和实验描述中的“AI感”。 * 入口: https://www.gxcqvip.com/gx-weipu/ 适用: 本科、硕士论文初稿及中稿自查。 2、万方 AIGC 检测(专业术语识别强) * 特点: 独有“

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案

Whisper.cpp 语音识别终极指南:5分钟快速部署跨平台ASR方案 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 想要在本地快速实现高质量语音识别?Whisper.cpp 作为 OpenAI Whisper 模型的 C++ 移植版本,为你提供了轻量级ASR解决方案。无需复杂配置,只需简单几步,就能将强大的语音识别能力集成到你的应用中!🚀 🎯 为什么选择 Whisper.cpp? 真正开箱即用的语音识别体验:告别繁琐的云端API调用,在本地即可享受与OpenAI Whisper相同的识别精度。无论是会议记录、语音助手还是音频内容分析,Whisper.cpp 都能提供稳定可靠的识别服务。 核心优势亮点: * ✅ 零外部依赖 -

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式

颠覆级里程碑:Whisper Large-V3-Turbo重构语音交互技术范式 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 技术背景:实时交互时代的语音识别困境 在智能座舱、远程医疗、元宇宙社交等新兴场景推动下,语音交互正从"可用"向"自然"跨越。行业数据显示,当语音识别延迟超过180ms时,用户对话流畅度将下降47%,而多语言混合场景的识别错误率普遍高达23%。传统语音模型面临三重矛盾:高性能模型推理成本过高(单句识别需GPU支持)、轻量化方案精度损失显著(WER提升11-15%)、多语言支持与识别速度难以兼得。OpenAI此次推出的Whisper Large-V3-Turbo,通过解码层重构+注意力机制优化的组合策略,正在改写语音识别技术的效率边界。 核心特性:解码革命与性能跃迁 架构突破:从32层到4层的极限压缩 Whisper Large-V3-Turbo实现了87.5%