使用 Trae IDE 一键将 Figma 转为前端代码

在现代前端开发中,从设计稿到可用页面的交付往往需要大量重复劳动:切图、手写样式、布局调整……而借助 MCP Server - Figma AI Bridge,我们可以将 Figma 设计稿自动转换成整洁的 HTML/CSS/JS 代码,并立即生成可预览的网页。一键化、傻瓜式操作,让设计交付效率跃升。

本文测试使用的系统环境如下:

  • Trae IDE 版本:2.4.5
  • macOS 版本:14.7
  • Node.js 版本:24.6.0
  • npx 版本:11.5.2
  • Python 版本:3.13.3
  • uvx 版本:0.6.16

一、安装并启动 Trae IDE

Trae IDE 与 AI 深度集成,提供智能问答、代码自动补全及基于 Agent 的 AI 自动编程能力。首次使用时,前往官网下载并安装:

  1. 访问官网下载页面并选择对应平台的安装包。
  2. 双击运行安装程序,按提示完成安装。
  3. 启动 Trae IDE,初次打开会看到欢迎页及快速入门指南。

二、配置 MCP Server 运行环境

为了让 MCP Server 正常工作,需要安装 Node.js、npx、Python 及 uvx 工具。

1. 打开 Trae IDE 终端

  • 启动 Trae IDE。
  • 在顶部菜单栏依次点击 终端 > 新建终端,打开内置命令行。

图片

图片

  1. 安装 Python 与 uvx

前往 Python 官网 下载并安装 Python 3.8+。安装完成后在终端验证安装:

python3 --version 

安装 uv 工具集(包含 uvx):

//macOS / Linux curl -LsSf https://astral.sh/uv/install.sh | sh //Windows powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex" 

执行环境初始化:

source $HOME/.local/bin/env 

验证 uvx 安装:

uvx --version 
  1. 安装 Node.js 与 npx

前往 Node.js 官网 下载并安装 Node.js 18+。在终端验证安装:

node -v npx -v 

若看到类似 v22.x.x、11.x.x 的版本号,则说明安装成功;重启 Trae IDE 以使新安装生效。

三、获取 Figma Access Token

配置 Figma AI Bridge 时需要填写你的 Figma Personal Access Token,具体获取流程如下:

  1. 登录 Figma,在左上角点击用户头像,选择 Settings

图片

  1. 在顶部菜单中选择 Security。

图片

  1. 下滑至 Personal access tokens 区域,点击 Generate new token。在弹窗中输入 Token 名称、选择有效期并配置权限,以下是一些参考:

图片

  1. 点击 Generate token,复制生成的 Token 字符串备用。

四、在 Trae IDE 中添加 MCP Server - Figma AI Bridge

  1. 打开 Trae IDE,点击 AI 对话框右上角的 设置 图标,选择 MCP

图片

  1. 在 MCP 面板点击 + 添加 MCP Servers(或已添加时右侧的 + 添加)。在列表中找到 Figma AI Bridge,点击右侧 + 按钮。

图片

  1. 将之前复制的 Figma Personal Access Token 粘贴到输入框,点击 确认

图片


此时,MCP Server - Figma AI Bridge 已成功配置,并已自动添加到 “Builder with MCP” 智能体中。

五、创建自定义智能体并绑定 Figma AI Bridge

智能体(Agent)是你在不同场景下的 AI 助手。自定义智能体后,你可以灵活配置提示词和工具集,快速完成复杂任务。

在 AI 对话框右上角点击 设置,选择 智能体。点击 + 创建智能体

图片


在配置面板中:

  • (可选)上传智能体头像。
  • 输入智能体名称,例如:“Figma 助手”。

(可选)填写提示词,示例:

“根据用户提供的 Figma 链接,精准还原 UI 设计,生成响应式 HTML 前端页面代码。结构清晰,视觉细节与设计稿高度一致,禁止擅自修改设计内容。”在 工具-MCP 部分仅勾选 Figma AI Bridge
  • 在 工具-内置 部分勾选:
  • 文件系统(File System)
  • 终端(Terminal)
  • 联网搜索(Web Search)
  • 预览(Preview)配置完成后示例:

图片


点击 创建,完成后应用自定义智能体。

六、一键生成前端页面

  1. 在本地新建一个空文件夹,在 Trae IDE 中打开该文件夹。
  2. 在 AI 对话框右下角选择模型(本文以 DeepSeek-V3-0324 为例)。
  3. 打开 Figma 设计稿页面,选中目标画板,右键 → Copy/Paste as > Copy link to selection,复制链接。

图片

在 Trae IDE AI 对话输入框中粘贴链接,并附上需求说明,例如:

“请严格按照我提供的 Figma 链接内容生成 HTML 前端页面,UI 要严格还原设计稿,需要实现响应式设计。”

图片
智能体开始调用 Figma AI Bridge,读取设计稿并自动生成前端项目文件夹和 index.html。以下为生成过程示例:

图片


生成完成后,双击输出的 index.html,在浏览器中预览最终效果。若需调整,可在 AI 对话框继续与智能体互动,优化样式或交互,直至满意为止。

Read more

本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。 安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客 自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南 步骤 1:安装 OpenClaw(openclaw中文社区) 1. 打开 PowerShell。 2. 执行以下命令一键安装: # 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex * 安装过程会自动下载 Node.js、依赖等,耗时几分钟。 * 安装完成后会自动进入配置向导,或提示你继续下一步。

从零开始:OpenClaw安装+飞书机器人全流程配置指南(附踩坑实录)

从零开始:OpenClaw 安装 + 飞书机器人全流程配置指南(附踩坑实录) 本文面向完全零基础的小白,手把手带你从一台干净的 Linux 机器开始,安装 OpenClaw、配置 AI 模型、对接飞书机器人,最终实现在飞书里和 AI 直接对话。全程附带我自己踩过的坑和解决方案。 目录 * 一、OpenClaw 是什么? * 二、环境准备 * 三、安装 OpenClaw * 四、初始配置(onboard 向导) * 五、飞书机器人配置全流程 * 六、踩坑实录 & 避坑指南 * 七、验证一切正常 * 八、进阶:常用命令速查 一、OpenClaw 是什么? OpenClaw 是一个开源的 AI Agent

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw 多飞书机器人与多 Agent 团队实战复盘 这篇文章完整记录一次从单机安装到多机器人协作落地的真实过程: 包括 Windows 安装报错、Gateway 连通、模型切换、Feishu 配对、多 Agent 路由、身份错位修复,以及最终形成“产品-开发-测试-评审-文档-运维”团队。 一、目标与结果 这次实践的目标很明确: 1. 在 Windows 上稳定跑通 OpenClaw 2. 接入飞书机器人 3. 做到一个机器人对应一个 Agent 角色 4. 支持多模型并行(OpenAI + Ollama) 5. 最终形成可执行的多 Agent 团队 最终落地状态(已验证): * 渠道:Feishu 多账号在线 * 路由:按 accountId

2026 AI元年:AI原生重构低代码,开发行业迎来范式革命

2026 AI元年:AI原生重构低代码,开发行业迎来范式革命

前言         2026 年,被全球科技产业正式定义为AI 规模化落地元年。 从实验室走向生产线、从对话交互走向系统内核、从锦上添花的功能插件走向底层驱动引擎,AI 不再是概念炒作,而是重构软件研发、企业服务、数字化转型的核心生产力。低代码开发平台,作为过去十年企业数字化落地最轻量化、最普及的工具,在 2026 年迎来最彻底的一次变革:AI 全面注入低代码,从 “可视化拖拽” 迈向 “意图驱动生成”。         长期以来,低代码行业始终面临两大争议:一是被技术开发者嘲讽 “只能做玩具系统,无法支撑企业级复杂场景”;二是被业务人员抱怨 “依旧需要懂技术、配规则、调逻辑,门槛依然很高”。而随着大模型技术成熟、国产模型规模化商用、AI 工程化能力落地,这一切正在被改写。         JNPF 作为企业级低代码平台的代表,在 2026 年全面完成 AI 原生架构升级,深度对接 Deepseek、通义千问、