玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

目录

本轮目标

具体实践

一、开启 Figma 的 MCP 服务器

二、Claude Code 连接 Figma MCP

三、Claude Code 代码实现 Figma 设计稿


本轮目标

本轮目标是制作数字化大屏的一个前端组件,要求和UI设计图还原度达到1:1。

本轮目标需要我们提前准备好figma客户端,且登录帐号具有开发模式的权限(没有可以去某夕)。Claude Code 就不必多说,没有安装的同学参考我的上一篇文章《玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)》完成安装,通过专属链接注册,可以额外领取100美金的免费使用额度。

安装教程参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024


具体实践

一、开启 Figma 的 MCP 服务器

打开 Figma 桌面客户端(只支持在桌面端中设置 Figma MCP Server),如图所示选中 Preferences -> Enable Dev Mode MCP Server 启动 MCP Server。

如果访问 localhost:3845/sse 有如下页面,说明 Figma 的 MCP 服务开启成功。

Figma MCP 支持 5 个 Tool:

ToolFunction
get_code获取设计稿中的代码
get_image获取设计稿中的图片
get_variable_defs获取某个变量
get_code_connect_map获取代码连接映射
create_design_system_rules创建设计系统规则

二、Claude Code 连接 Figma MCP

首先保证电脑上已经安装 claude code,没有安装的参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,收藏86次。全网最火爆的Claude Code系列教程来了,跟着小智学AI,做新时代的Vibe Coder,几篇博客带你玩转Claude Code,本文介绍了Claude Code在Windows环境、Linux环境、MacOS环境下的安装和使用,还没有体验过Calude Code的你,快来扫盲吧,有任何问题都可以在评论区留言,期待你的互动!_claude code安装https://blog.ZEEKLOG.net/weixin_41793160/article/details/149313024

已经安装成功的进行下面的步骤:

项目文件夹目录下 CMD 运行:

claude mcp add --transport sse figma-dev-mode-mcp-server http://127.0.0.1:3845/sse

启动 Claude Code:

claude --dangerously-skip-permissions

查看 MCP 是否安装成功:

/mcp

如果显示未连接,可以回车之后选择 Reconnect 一下,连接成功如图:

如果需要项目特定配置,可以在项目目录下新建 .mcp.json 文件,将 Figma MCP Server 和 context7 MCP Server 的配置写入:

{   "mcpServers": {     "Figma": {       "url": "http://127.0.0.1:3845/sse"     },     "context7": {       "command": "npx",       "args": ["-y", "@upstash/context7-mcp@latest"]     }   } }

三、Claude Code 代码实现 Figma 设计稿

先测试 Claude Code 能否读取到 Figma 的设计稿。

选中 Figma 设计稿中的某一块(或复制 Figma 中的图层链接)。

在 Claude Code 里提问,是否可以抓取到对应模块的 CSS:

告诉我figma里选中的模块的css

可以看到,CSS 信息被顺利抓取。

下面,我们来进行代码的整体编写,将 Figma 设计稿转换成代码实现。

根据figma 设计稿当前选中的图层,遍历里面所有的组件,对图片逐一下载,对每个子组件逐一读取,将figma设计稿转换为html代码实现,创建index.html

我创建了一个静态 html 页面来实现这个效果,如果是vue/react/angular的页面,告诉 claude code 即可。

由于元素过多,claude code 的第一版一般都和 ui 大相径庭。后续需要我们逐个组件把 css 喂给 claude code。

最终效果:

各个组件都和原型 1:1 复刻,后面再微调组件间距离即可。因为大屏太过复杂,调了很久,但是也节省了非常大的时间。

下面,我们再去复刻一个简单的移动端的 UI 案例。

还是先选中我们要实现的图层。

告诉 claude code,我们要遍历这个图层中的所有组件,创建一个 html 文件,实现这个组件。

帮我创建一个test.html,实现我选中的图层及内容,要求遍历每一个组件,获取他们的样式和svg等

初版很快就被实现了出来:

下面,我们需要依次选中figma中的每个子组件,再把它们的 css 喂给 claude code。

最终效果:

再实现一个简单的,目标如下:

初版如图:

喂给 claude code 更多 css 和 svg 信息:

最终结果如图:

经过这几个例子,我们可以看到 claude code 结合 figma 的 mcp 之后,功能变得多么的强大,期待使用 claude code 做出更多出色的作品!!


加入社区

Claude Code 开发者交流社区

福利多多,立即加入 👇 👇 👇 

Claude Code 中国开发者交流社区

期待与你的思维碰撞,共同奔赴AI开发的浪潮!

Read more

通义灵码VS Copilot:阿里云AI编程助手在企业开发环境下的实战对比

通义灵码与Copilot:企业级AI编程助手选型深度实战解析 在技术决策者的日常工作中,工具选型从来不是一道简单的选择题,而是一场关于团队效率、技术债务、安全合规与长期成本的综合权衡。当AI编程助手从极客玩具演变为生产力标配,摆在CTO和技术负责人面前的,不再是“要不要用”,而是“用哪一个,以及如何用好”。GitHub Copilot凭借先发优势,几乎定义了“AI结对编程”的范式;而阿里云推出的通义灵码,则带着对云原生和企业级场景的深度理解强势入场。这场对决,远不止是功能列表的对比,更是两种技术哲学、两种服务模式在企业真实战场上的较量。本文将抛开浮于表面的参数罗列,深入代码生成质量、团队协作适配、私有化部署成本、以及与企业现有研发流程的融合度等核心维度,为你提供一份基于实战的深度选型指南。 1. 核心能力与代码生成质量:超越“补全”的智能较量 许多评测停留在“谁能生成更多代码行”的层面,但这对于企业级应用是远远不够的。我们更应关注的是:生成的代码是否安全、可维护、符合团队规范,以及在复杂业务上下文中的“理解力”。 代码生成的准确性与上下文感知是首要分水岭。Copilot基于G

LlamaFactory模型微调

一.整体概述 LlamaFactory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LlamaFactory,我们可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调。 二.数据处理 LlamaFactory训练所需要的所有数据,都集中存放在了该项目所在的data目录下。data目录中主要是包含了用于定义和管理数据集配置信息的dataset_info.json文件,以及其他各种格式的训练数据文件。 dataset_info.json dataset_info.json文件是用于定义和管理数据集的配置信息,这些配置信息主要包括了数据集的名称和路径、数据集格式、样本数量、列名绑定等元数据。 dataset_info.json包含了所有经过预处理的本地数据集和在线数据集。本地数据集主要是LLaMAFactory所提供的一些demo样例数据集以及我们自定义的数据集。而在线数据集主要是Hugging Face和ModelScope所提供的数据集。 dataset_info.json的格式模板如下: "数据集名称

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

引言:突破视觉创作的传统限制 在视觉内容的创作领域,长久以来存在着一系列由技术、时间及预算构成的严格限制。这些限制直接影响着创意从概念到最终呈现的全过程。一个富有创造力的设计师,可能会因为无法承担高昂的实地拍摄费用,而不得不放弃一个原本极具潜力的广告方案。一个构思了宏大世界观的故事作者,可能因为不具备操作复杂三维建模软件的专业技能,而使其笔下的角色无法获得具象化的视觉呈现。一家新兴的初创公司,也可能因为传统设计流程的冗长和低效,在快速变化的市场竞争中错失发展机会。 社会和行业在某种程度上已经习惯了这种因工具和流程限制而产生的“创意妥协”。创作者们在面对自己宏大的构想时,常常因为工具的局限性而感到无力。一种普遍的观念是,顶级的、具有专业水准的视觉呈现,是少数拥有充足资源和专业团队的机构或个人的专属领域。 然而,由豆包·图像创作模型Seedream 4.0所引领的技术发展,正在从根本上改变这一现状。它所提供的并非是对现有工具集的微小改进或功能补充,而是一种全新的、高效的创作工作模式。通过这一模式,过去需要专业团队投入数周时间才能完成的复杂视觉项目,现在可以在极短的时间内,在操作者的

【大模型部署实战】Llama.cpp部署教程(四):极致轻量化,老旧电脑也能部署大模型

【大模型部署实战】Llama.cpp部署教程(四):极致轻量化,老旧电脑也能部署大模型

前言 你是否想体验大模型却被硬件门槛拦住?本教程专为老旧电脑、低配置办公本、无独显设备打造——通过llama.cpp工具,我们能将大模型运行门槛压到极致,实现10年前的设备也能流畅本地对话。 llama.cpp是目前最主流的轻量化推理框架,核心优势在于纯CPU优化、极低内存占用、GGUF高效模型格式。本教程区分「新手极简版(免编译)」和「进阶优化版」,无论你是电脑小白还是技术爱好者,都能跟着步骤完成部署。 一、前置准备与核心认知 1.1 最低硬件配置要求 先明确你的设备能不能跑,这里给出绝对最低门槛和推荐配置: 硬件类型 绝对最低门槛(能跑) 推荐配置(流畅) 处理器 Intel Core 2 Duo E8400 / AMD Athlon II X2 250 Intel i3-4130 / AMD FX-6300 及以上 内存