Claude Code + Figma:AI 画原型完整教程,从 PRD 到设计稿只要 5 分钟

Claude Code + Figma:AI 画原型完整教程,从 PRD 到设计稿只要 5 分钟

之前我一直用 Pencil MCP 来画原型,效果还不错。最近在社区看到有人说 Claude Code + Figma MCP 的出图效果也挺好,作为 AI 辅助设计的另一条路线,就想来实测对比一下。

刚好手头有个体脂秤 App(BodyMate)要改版,正好拿这个真实项目当测试场景——用 Claude Code 把 PRD 直接变成 Figma 原型,看看 Figma 这条线的 AI 画原型体验到底怎么样。

折腾了一圈,踩完所有坑,终于摸清了 2026 年 Claude Code + Figma 的正确工作流。

读完这篇你会得到:

  • 3 种 Claude Code 与 Figma 协作方式的完整对比(全部免费可用)
  • 每种方式的具体操作步骤和踩坑记录
  • 一套经过实测的 AI 画原型工作流,从 PRD 到设计稿全链路打通

Claude Code + Figma AI 画原型完整教程:3 种协作方式总览

先说结论:3 种方式,按需选择

Figma 和 Claude Code 之间有 3 种协作方式,适合不同阶段:

方式适合场景是否付费难度
HTML 原型 + Figma 插件导入从零画原型免费简单
Copy as code → 粘贴给 AI设计改了同步代码免费最简单
Figma MCP Server全自动双向同步免费可用(有调用限额)中等

好消息:三种方式都不需要付费。 MCP Server 免费 Plan 就能连通,generate_figma_design(推代码到 Figma)甚至不限次数。

下面逐个展开,每种都给操作步骤。


方式一:AI 生成 HTML 原型 → 导入 Figma(推荐起步用)

这是从零开始最快的 AI 画原型方式——让 Claude Code 根据你的 PRD 生成 HTML,再一键导入 Figma,整个过程不需要手动画任何组件。

操作步骤

第一步:让 Claude Code 生成 HTML 原型

把你的 PRD 和 UI 设计规范丢给 Claude Code,一句话搞定:

“根据 PRD 和 UI 设计规范,帮我把所有页面的原型画在一个 HTML 文件里”

Claude 会生成一个包含所有屏幕的 HTML 文件,每个屏幕是一个 390×844 的 iPhone 框架,并排排列。

第二步:导入 Figma(两种方式任选)

HTML 生成后,有两种方式导入 Figma:

方式 A:用 MCP 自动推送(推荐)

如果已经连通了 Figma MCP(配置方法见方式三),直接告诉 Claude Code:

“启动本地服务器,把这个 HTML 捕捉到我的 Figma 文件里”

Claude Code 会自动启动服务器、打开浏览器、捕捉页面、推送到 Figma,全程自动化。

方式 B:用 Figma 插件手动导入

  1. 启动本地服务器(Claude Code 会自动帮你启动)
  2. 打开 Figma → 运行插件 html.to.design(Builder.io 出品,在 Figma 插件市场搜索安装)
  3. 输入本地服务器地址
  4. 点击 Import,所有屏幕变成可编辑的 Figma Frame

一个 HTML 文件,5 个屏幕,一键全部导入 Figma。

1280X1280.PNG

两种导入方式对比

手动导入(html.to.design 插件)自动捕捉(MCP generate_figma_design)
操作方式在 Figma 里运行插件手动导入Claude Code 通过 MCP 自动推送
还原度高,基本无失真会有一定失真
是否付费免费免费(不受配额限制)
适合场景初次导入、追求精确频繁迭代、追求速度

我的建议: 初期用手动导入,追求还原度。等工作流跑顺了、需要频繁迭代时,再考虑 MCP 自动捕捉。

适合什么情况

  • 项目初期,从 PRD 快速出原型,不想在 Figma 里一个个拖组件
  • 想让 AI 理解你的设计规范后自动排版
  • 独立开发者没有设计师,需要 AI 辅助设计出图

方式二:Figma Copy as code(日常最实用)

这是设计改完后同步到代码最顺手的方式,完全不需要配置任何 MCP,零门槛。

操作步骤

第一步:在 Figma 里复制设计信息

选中你改过的组件,右键:

Copy/Paste as → Copy as code → CSS(或选 iOS/Android)

Figma 会把该组件的样式属性(尺寸、圆角、颜色、字体等)导出为结构化的代码格式。

第二步:粘贴给 Claude Code

把复制的内容粘贴给 Claude Code,告诉它要更新哪个组件就行。Claude 会自动识别设计属性,把设计稿的改动同步到代码里。

如果你已经配置了 Figma MCP(方式三),还可以用更快的方式:

选中组件 → 右键 → Copy/Paste as → Copy link to selection

得到一个带 node-id 的链接。把这个链接粘贴给 Claude Code,AI 会自动通过 MCP 读取该节点的完整设计数据——不用手动复制代码。

在这里插入图片描述

适合什么情况

  • 设计师改了 Figma,开发需要同步到代码
  • 微调某个组件的样式
  • 不想折腾 MCP 配置,粘贴就能用

方式三:Figma MCP Server(全自动双向同步)

这是 Figma 官方 2026 年初发布的 AI 集成方案,支持设计和代码双向同步。配置好后,Claude Code 可以直接读取 Figma 设计数据,也可以把代码界面推回 Figma。

两种 MCP Server 的区别

Remote ServerDesktop Server
地址mcp.figma.com/mcp127.0.0.1:3845/mcp
认证OAuth 登录无需认证
要求所有 Plan(含免费)付费 Plan + 桌面端
能力读取 + 写入读取 + 写入(基于选中内容)

各 Plan 调用限额

这是很多人关心的问题,实测后整理了一下:

Plan限额说明
Starter(免费)每月 6 次generate_figma_design 不占配额
Pro每天 200 次10 次/分钟
Organization每天 200 次15 次/分钟
Enterprise每天 600 次20 次/分钟

重点:generate_figma_design(把代码推送到 Figma)不受配额限制,免费用户也能无限次使用。每月 6 次的限制主要影响读取类工具(如 get_design_context),日常够用了。

Figma MCP 各 Plan 调用限额对比:写入 Figma 永远免费不限次数

MCP 配置教程

配置 Remote Server(推荐先试这个)

在 Claude Code 终端里运行一行命令就行,首次使用会弹出 Figma OAuth 授权页面,在浏览器打开链接登录允许即可。整个过程不超过 1 分钟。

配置 Desktop Server

  1. 打开 Figma 桌面端
  2. 切换到 Dev Mode → Enable desktop MCP server
  3. 在 Claude Code 终端添加本地 MCP 服务器地址

连通后能做什么

配置好 Figma MCP 后,Claude Code 获得 13 个工具,核心分两类:

  • 读取设计get_design_context(获取样式和布局)、get_screenshot(截图)、get_metadata(节点结构)等,帮你把 Figma 设计数据提取给 AI
  • 写入 Figmagenerate_figma_design,把 HTML/代码界面推送回 Figma(不限次数)

用起来很简单——把 Figma 设计链接丢给 Claude Code,它会通过 MCP 自动读取设计数据,然后帮你实现对应的代码。反过来,代码改了 UI 之后,也可以让 Claude Code 自动捕捉界面推回 Figma。

踩坑记录(重要)

实测过程中遇到了 3 个坑,提前避开能省很多时间:

坑 1:VSCode 扩展里 OAuth 可能不弹出

Remote Server 在 VSCode Claude Code 扩展里可能无法完成 OAuth 认证流程。解决方案: 先在终端 claude 里完成认证,再回 VSCode 就正常了。

坑 2:第三方 MCP 和官方 MCP 容易搞混

npm 上的 figma-developer-mcp 是第三方包(Framelink 出品),只能读不能写,还需要手动配 API Token。Figma 官方的 Remote MCP 地址是 mcp.figma.com/mcp,用 OAuth 认证,功能完整——别装错了。

坑 3:免费 Plan 完全够用

一开始以为 MCP 需要 Pro,实测发现 Free Plan 就能连通generate_figma_design(推代码到 Figma)不受配额限制;读取类工具每月 6 次,日常够用。


我的推荐工作流(经过实测)

推荐工作流:按项目阶段选方式,从初期出原型到日常迭代到全自动同步

根据项目阶段选择不同的 AI 画原型方式:

初期:快速出原型

PRD + UI 规范 → Claude Code 生成 HTML 原型 → html.to.design 插件导入 Figma

5 分钟出完所有页面,比手动画快 10 倍。

日常:设计改完同步代码

Figma 改设计 → Copy as code → 粘贴给 Claude Code → 自动同步

设计稿转代码最顺滑的方式,零配置。

进阶:全自动双向同步(MCP 连通后,免费即可)

设计改了 → MCP 自动读取 → 代码同步 → 代码改了 UI → 自动推回 Figma(不限次数)

真正实现设计和代码的双向同步,免费 Plan 就能用。


实用技巧:建立设计-代码映射表

在项目里维护一份映射关系表,AI 看到就知道该改哪个文件:

UI 组件Figma 帧代码文件
体重卡片Home/WeightCardWeightCard.swift
睡眠条Home/SleepBarSleepCard.swift
AI 聊天气泡AI/ChatBubbleChatBubble.swift

这样不管用哪种方式,告诉 Claude Code"改体重卡片",它就能精准定位到对应的 Figma 设计和代码文件。

对于独立开发者来说,这张表就是你的设计系统文档,维护成本极低但效果很好。


总结

2026 年,AI 辅助设计的链路已经完全跑通了:

  • 三种方式都免费: HTML 原型、Copy as code、MCP Server 都不需要 Pro
  • MCP 免费版限制很少:generate_figma_design 不限次数,读取类工具每月 6 次,日常够用
  • 核心思路: 让 AI 理解你的设计规范,而不是一个个像素去抠

工具在进化,但思路比工具重要——先把 PRD 和设计规范写清楚,AI 才能帮你高效干活。

最后说说 Figma 和 Pencil MCP 的选择

实测完整个流程后,我个人的感受是:Figma 这条线更适合有团队协作需求的场景。

Figma 本身的设计组件生态非常成熟,设计师和开发者之间有现成的协作规范(Dev Mode、设计系统、组件库)。如果你的项目有专门的设计师,或者需要多人在同一份设计稿上协作,Figma MCP 能把这条链路打通得很顺滑——设计师在 Figma 改完,开发通过 MCP 自动同步,不需要反复截图对照。

但如果你是独立开发者、一个人搞定设计和代码,Pencil MCP 这类更轻量的方案可能效率更高,不需要绕一圈 Figma。

选哪条线取决于你的团队结构,不是工具本身的好坏。


如果你也在用 AI 辅助设计或者 Claude Code 画原型,欢迎在评论区聊聊你的工作流,互相抄作业。

觉得有用的话,转发给你还在手动画原型的朋友,帮他们省点时间。

Read more

Nature新刊Sensors:清华团队突破机器人触觉难题,多模态感知精度直逼人类指尖

Nature新刊Sensors:清华团队突破机器人触觉难题,多模态感知精度直逼人类指尖

首次让触觉数据从“数值”变成“可理解的信息” ——鸽眼的启发 目录 01  传统触觉传感器的痛点 电子皮肤(e-skin):分辨率和模态难两全 视觉触觉传感器:光谱范围被“卡脖子” 数据解读:多模态信息“各说各话” 02  仿生灵感 导电层:既是“电极”也是“透光开关” 荧光层+反射层:多光谱“信息接收器” 可调节气压,适应不同物体 03  DOVE模型让触觉会“说话” 多模态数据“融合解读” 物体差异“对比推理” 联想判断 04  6大维度刷新触觉传感器纪录 三指灵巧手 平行夹爪 05  待解难题 微型化:目前还无法装在机器人指尖 耐用性:长期使用后性能会下降 动态场景适应:无法处理快速运动的物体

老手机 本地部署小龙虾OpenClaw(使用本地千问大模型)实机演示 Termux+Ubuntu+Llama 新手完整安装教程(含代码)

本教程提供从 0 到 1 的详细步骤,在安卓手机上通过 Termux 运行 Ubuntu,部署本地 Llama 大模型,并集成 OpenClaw 进行 AI 交互,全程无需 Root。建议手机配置:≥4GB 内存,≥64GB 存储,Android 7+。 一、准备工作 1.1 安装 Termux 1. 从F-Droid或GitHub下载最新版 Termux(避免应用商店旧版本) 2. 安装并打开,首次启动会自动配置基础环境 1.2 手机设置优化 1. 开启开发者选项(设置→关于手机→连续点击版本号 7 次) 2.

Ollama 底层的 llama.cpp 和 GGUF

GGUF = 大模型权重的「通用压缩格式」(类似视频的 MP4,适配所有播放器) llama.cpp = 跑 GGUF 格式模型的「轻量级推理引擎」(类似视频播放器,能在低配电脑上流畅播 MP4) 两者配合:GGUF 让模型体积变小、适配性强,llama.cpp 让模型能在 CPU / 低配 GPU 上快速跑 这也是 Ollama 能做到 “一键本地运行” 的底层原因 GGUF 详解:大模型的 “通用压缩包” 核心定义 GGUF(Generic GGML Format)是 GGML 格式的升级版,是专门为大模型权重设计的二进制存储格式 核心目标是「通用、高效、压缩」 GGML 是什么?

Z-Image-Turbo与Midjourney对比:开源VS闭源生成效果实测

Z-Image-Turbo与Midjourney对比:开源VS闭源生成效果实测 1. 开源新星Z-Image-Turbo来了,它到底有多强? 你有没有遇到过这种情况:脑子里有个画面,想画出来却无从下手?或者做设计时,为了找一张合适的配图翻遍全网都不满意?现在,AI绘画已经能帮你把想法变成现实。而在众多AI图像生成工具中,最近冒出来一个叫 Z-Image-Turbo 的模型,势头特别猛。 它是阿里巴巴通义实验室开源的一款高效文生图模型,名字里的“Turbo”可不是吹的——主打一个快、准、稳。更关键的是,它完全免费,还能在消费级显卡上跑起来。相比之下,像Midjourney这样的闭源工具虽然效果也不错,但得付费、要翻墙、还得绑定Discord,用起来没那么自由。 那问题就来了:这个新开源的Z-Image-Turbo,真能跟Midjourney掰手腕吗?我们决定来一场面对面的实测PK,看看谁才是真正的“造图王者”。 2. Z-Image-Turbo是什么?为什么值得关注 2.1 什么是Z-Image-Turbo Z-Image-Turbo是阿里通义实验室推出的高效文本生成图