玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

目录

本轮目标

具体实践

一、开启 Figma 的 MCP 服务器

二、Claude Code 连接 Figma MCP

三、Claude Code 代码实现 Figma 设计稿


本轮目标

本轮目标是制作数字化大屏的一个前端组件,要求和UI设计图还原度达到1:1。

本轮目标需要我们提前准备好figma客户端,且登录帐号具有开发模式的权限(没有可以去某夕)。Claude Code 就不必多说,没有安装的同学参考我的上一篇文章《玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)》完成安装,通过专属链接注册,可以额外领取100美金的免费使用额度。

安装教程参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024


具体实践

一、开启 Figma 的 MCP 服务器

打开 Figma 桌面客户端(只支持在桌面端中设置 Figma MCP Server),如图所示选中 Preferences -> Enable Dev Mode MCP Server 启动 MCP Server。

如果访问 localhost:3845/sse 有如下页面,说明 Figma 的 MCP 服务开启成功。

Figma MCP 支持 5 个 Tool:

ToolFunction
get_code获取设计稿中的代码
get_image获取设计稿中的图片
get_variable_defs获取某个变量
get_code_connect_map获取代码连接映射
create_design_system_rules创建设计系统规则

二、Claude Code 连接 Figma MCP

首先保证电脑上已经安装 claude code,没有安装的参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024

已经安装成功的进行下面的步骤:

项目文件夹目录下 CMD 运行:

claude mcp add --transport sse figma-dev-mode-mcp-server http://127.0.0.1:3845/sse

启动 Claude Code:

claude --dangerously-skip-permissions

查看 MCP 是否安装成功:

/mcp

如果显示未连接,可以回车之后选择 Reconnect 一下,连接成功如图:

如果需要项目特定配置,可以在项目目录下新建 .mcp.json 文件,将 Figma MCP Server 和 context7 MCP Server 的配置写入:

{   "mcpServers": {     "Figma": {       "url": "http://127.0.0.1:3845/sse"     },     "context7": {       "command": "npx",       "args": ["-y", "@upstash/context7-mcp@latest"]     }   } }

三、Claude Code 代码实现 Figma 设计稿

先测试 Claude Code 能否读取到 Figma 的设计稿。

选中 Figma 设计稿中的某一块(或复制 Figma 中的图层链接)。

在 Claude Code 里提问,是否可以抓取到对应模块的 CSS:

告诉我figma里选中的模块的css

可以看到,CSS 信息被顺利抓取。

下面,我们来进行代码的整体编写,将 Figma 设计稿转换成代码实现。

根据figma 设计稿当前选中的图层,遍历里面所有的组件,对图片逐一下载,对每个子组件逐一读取,将figma设计稿转换为html代码实现,创建index.html

我创建了一个静态 html 页面来实现这个效果,如果是vue/react/angular的页面,告诉 claude code 即可。

由于元素过多,claude code 的第一版一般都和 ui 大相径庭。后续需要我们逐个组件把 css 喂给 claude code。

最终效果:

各个组件都和原型 1:1 复刻,后面再微调组件间距离即可。因为大屏太过复杂,调了很久,但是也节省了非常大的时间。

下面,我们再去复刻一个简单的移动端的 UI 案例。

还是先选中我们要实现的图层。

告诉 claude code,我们要遍历这个图层中的所有组件,创建一个 html 文件,实现这个组件。

帮我创建一个test.html,实现我选中的图层及内容,要求遍历每一个组件,获取他们的样式和svg等

初版很快就被实现了出来:

下面,我们需要依次选中figma中的每个子组件,再把它们的 css 喂给 claude code。

最终效果:

再实现一个简单的,目标如下:

初版如图:

喂给 claude code 更多 css 和 svg 信息:

最终结果如图:

经过这几个例子,我们可以看到 claude code 结合 figma 的 mcp 之后,功能变得多么的强大,期待使用 claude code 做出更多出色的作品!!


加入社区

Claude Code 开发者交流社区

福利多多,立即加入 👇 👇 👇 

Claude Code 中国开发者交流社区

期待与你的思维碰撞,共同奔赴AI开发的浪潮!

Read more

5分钟精通llama-cpp-python:从安装到AI应用实战全解析

5分钟精通llama-cpp-python:从安装到AI应用实战全解析 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在个人电脑上轻松运行大语言模型?llama-cpp-python作为专为开发者设计的Python绑定库,为您提供了一条快速接入llama.cpp推理引擎的便捷通道。本指南将带您深入掌握这个强大的AI工具包,从基础安装到高级功能应用,一站式解决所有技术难题!🚀 🎯 环境准备与系统兼容性 在开始安装llama-cpp-python之前,请确保您的环境满足以下要求: 基础环境配置: * Python 3.8或更高版本 * C编译器(Linux:gcc/clang,Windows:Visual Studio/Mingw,MacOS:Xcode) * 充足的内存和存储空间 平台特定注意事项: * Windows用户:建议使用Visual Studio构建工具 * MacO

[特殊字符] Meixiong Niannian画图引擎社区精选:50+高质量AI绘画作品及对应Prompt分享

Meixiong Niannian画图引擎社区精选:50+高质量AI绘画作品及对应Prompt分享 1. 为什么这款轻量画图引擎值得你立刻试试? 你有没有过这样的体验:看到一张惊艳的AI画作,心里直呼“这怎么做到的”,可一查部署要求——动辄32G显存、复杂环境配置、命令行调试半天……热情瞬间被浇灭?Meixiong Niannian画图引擎就是为打破这种门槛而生的。 它不是又一个需要折腾半天才能跑起来的实验项目,而是一个真正“开箱即用”的个人创作工具。基于Z-Image-Turbo底座,再叠上专为画图优化的meixiong Niannian Turbo LoRA权重,整个系统像一台调校精准的小型绘图引擎:不臃肿、不卡顿、不挑硬件。24G显存就能稳稳跑满,甚至部分20系显卡用户反馈在开启CPU卸载后也能流畅出图。更关键的是,它配了Streamlit做的可视化界面——没有终端黑窗口,没有yaml配置文件,只有清晰的输入框、滑动条和那个醒目的「🎀 生成图像」按钮。 这不是给工程师看的模型架构图,而是给创作者准备的画布。接下来,我们不讲参数原理,不列技术指标,直接带你走进真实用户的

Copilot认证后强制使用GPT-4o模型的底层逻辑与开发者应对策略

最近在深度使用GitHub Copilot时,发现一个挺有意思的现象:一旦完成企业认证或订阅升级,Copilot的后端模型似乎就被“锁定”为GPT-4o了。对于习惯了根据任务类型灵活切换模型(比如用GPT-4处理复杂推理,用GPT-3.5处理轻量补全)的开发者来说,这多少有点不便。今天就来聊聊这背后的技术逻辑,以及我们作为开发者可以有哪些应对策略。 先看一组直观的数据对比。我在本地简单模拟了两种模型对同一段代码补全请求的响应情况: # 模拟请求日志 import time # GPT-4 (假设调用) start = time.time() # ... 模拟API调用 gpt4_latency = 320 # 毫秒 gpt4_tokens = 1250 # GPT-4o (实际Copilot认证后调用) gpt4o_latency = 280 # 毫秒 gpt4o_tokens = 1180 print(f"GPT-4 响应延迟: {gpt4_latency}ms,

扫频信号 (Sweep/Chirp Signal) 原理与应用

扫频信号 (Sweep/Chirp Signal) 原理与应用

目录 前言 1. 什么是扫频信号? 2. 波形频率是如何变化的? 3. 扫描率 (Sweep Rate) 计算 2. 直观理解:与普通正弦波的区别 3. 常见分类 4. 核心作用:为什么要用扫频信号? 5. 项目实战分析 (结合 FPGA/C++ 代码) 实际测试结果: 测试信号:方波线性扫频(100Hz ~ 125kHz) 测试信号:正弦波线性扫频(100Hz ~ 2MHz) 实验建议 优化后的 FFT 绘图代码 6. 总结 前言         本文旨在记录扫频信号(Chirp)的时频特性,为后续基于扫频法的AD芯片性能测试与数据分析提供理论参考。 1. 什么是扫频信号? 定义:         扫频信号(Sweep