Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

Trae IDE评测体验:通过 MCP Server - Figma AI Bridge 一键将 Figma 转为前端代码

在现代前端开发中,从设计稿到可用页面的交付往往需要大量重复劳动:切图、手写样式、布局调整……而借助 MCP Server - Figma AI Bridge,我们可以将 Figma 设计稿自动转换成整洁的 HTML/CSS/JS 代码,并立即生成可预览的网页。一键化、傻瓜式操作,让设计交付效率跃升。

先下载 Trae IDE,让我们一起开始吧!
[立即免费获取 Trae]:https://trae.ai
Trae IDE 下载页面预览

演示环境

本文测试使用的系统环境如下:

  • Trae IDE 版本:0.5.5
  • macOS 版本:14.7
  • Node.js 版本:20.19.1
  • npx 版本:10.9.2
  • Python 版本:3.13.3
  • uvx 版本:0.6.16

一、安装并启动 Trae IDE

Trae IDE 与 AI 深度集成,提供智能问答、代码自动补全及基于 Agent 的 AI 自动编程能力。首次使用时,前往官网下载并安装:

  1. 访问官网下载页面并选择对应平台的安装包。
  2. 双击运行安装程序,按提示完成安装。
  3. 启动 Trae IDE,初次打开会看到欢迎页及快速入门指南。

二、配置 MCP Server 运行环境

为了让 MCP Server 正常工作,需要安装 Node.js、npx、Python 及 uvx 工具。

1. 打开 Trae IDE 终端

  • 启动 Trae IDE。
  • 在顶部菜单栏依次点击 终端 > 新建终端,打开内置命令行。
在 Trae IDE 中打开终端


新建终端示例

2. 安装 Python 与 uvx

  1. 前往 Python 官网 下载并安装 Python 3.8+。
  2. 安装 uv 工具集(包含 uvx):

验证 uvx 安装:

uvx --version 

执行环境初始化:

source$HOME/.local/bin/env 

Windows (PowerShell)

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

macOS / Linux

curl -LsSf https://astral.sh/uv/install.sh |sh

在终端验证安装:

python3 --version 

3. 安装 Node.js 与 npx

  1. 前往 Node.js 官网 下载并安装 Node.js 18+。
  2. 若看到类似 v18.x.x10.x.x 的版本号,则说明安装成功;重启 Trae IDE 以使新安装生效。

在终端验证安装:

node -v npx -v 

三、获取 Figma Access Token

配置 Figma AI Bridge 时需要填写你的 Figma Personal Access Token,具体获取流程如下:

点击 Generate token,复制生成的 Token 字符串备用。

生成的 Token 示例

在弹窗中输入 Token 名称、选择有效期并配置权限(可参考下表):

Token 权限配置示例

下滑至 Personal access tokens 区域,点击 Generate new token

Generate new token

在顶部菜单中选择 Security

Security 选项

登录 Figma,在左上角点击用户头像,选择 Settings

Figma Settings

四、在 Trae IDE 中添加 MCP Server - Figma AI Bridge

将之前复制的 Figma Personal Access Token 粘贴到输入框,点击 确认

输入 Access Token

在列表中找到 Figma AI Bridge,点击右侧 + 按钮。

选择 Figma AI Bridge

MCP 面板点击 + 添加 MCP Servers(或已添加时右侧的 + 添加)。

添加 MCP Servers

打开 Trae IDE,点击 AI 对话框右上角的 设置 图标,选择 MCP

MCP 入口

此时,MCP Server - Figma AI Bridge 已成功配置,并已自动添加到 “Builder with MCP” 智能体中。


五、创建自定义智能体并绑定 Figma AI Bridge

智能体(Agent)是你在不同场景下的 AI 助手。自定义智能体后,你可以灵活配置提示词和工具集,快速完成复杂任务。

  1. 在配置面板中:
    • (可选)上传智能体头像。
    • 输入智能体名称,例如:“Figma 助手”。
    • 工具-MCP 部分仅勾选 Figma AI Bridge
    • 工具-内置 部分勾选:
      • 文件系统(File System)
      • 终端(Terminal)
      • 联网搜索(Web Search)
  2. 点击 创建,完成自定义智能体的创建。

预览(Preview)
配置完成后示例:

智能体配置示例

(可选)填写提示词,示例:

“根据用户提供的 Figma 链接,精准还原 UI 设计,生成响应式 HTML 前端页面代码。结构清晰,视觉细节与设计稿高度一致,禁止擅自修改设计内容。”

点击 + 创建智能体

创建智能体

在 AI 对话框右上角点击 设置,选择 智能体

智能体入口

六、一键生成前端页面

  1. 在本地新建一个空文件夹,在 Trae IDE 中打开该文件夹。
  2. 在 AI 对话框右下角选择模型(本文以 DeepSeek-V3-0324 为例)。
  3. 生成完成后,双击输出的 index.html,在浏览器中预览最终效果。
  4. 若需调整,可在 AI 对话框继续与智能体互动,优化样式或交互,直至满意为止。

智能体开始调用 Figma AI Bridge,读取设计稿并自动生成前端项目文件夹和 index.html。以下为生成过程示例:

生成过程示例

在 Trae IDE AI 对话输入框中粘贴链接,并附上需求说明,例如:

“请严格按照我提供的 Figma 链接内容生成 HTML 前端页面,UI 要严格还原设计稿,需要实现响应式设计。”

打开 Figma 设计稿页面,选中目标画板,右键 → Copy/Paste as > Copy link to selection,复制链接。

复制 Figma 链接

附:Figma AI Bridge 支持能力

MCP Server - Figma AI Bridge 提供以下核心功能:

Figma AI Bridge 能力列表
  • 设计结构化解析:自动识别画板、组件、布局层级。
  • 样式映射:将 Figma 中的颜色、字体、间距等属性转成 CSS。
  • 响应式布局:根据设置自动生成媒体查询,支持多端适配。
  • 资源导出:自动导出切图、SVG、字体等静态资源。
  • 交互还原:根据原型中的交互描述生成简单的 JavaScript 逻辑。

结语

通过 Trae IDE 与 MCP Server - Figma AI Bridge 的结合,设计稿到代码的流程实现了高度自动化。无需手动切图、编写样式、配置打包,一行命令即可完成初版页面交付。无论是快速打样,还是持续迭代,都能极大提升前端开发效率。试试看,将你的下一个 Figma 项目交给 AI 助手完成吧!


Read more

Android陀螺仪实战:从基础到VR运动策略封装

1. 陀螺仪基础:从传感器数据到三维旋转 大家好,我是老张,在移动端和智能硬件领域摸爬滚打了十几年,今天想和大家聊聊 Android 陀螺仪。很多刚接触的朋友会觉得这东西很神秘,什么角速度、姿态解算,听起来就头大。其实没那么复杂,你可以把陀螺仪想象成一个特别灵敏的“旋转速度计”。当你拿着手机转动时,它就能立刻告诉你:“嘿,你现在正绕着X轴,以每秒0.5弧度的速度在转呢!” 在 Android 里,我们通过 SensorManager 这个“大管家”来和陀螺仪打交道。第一步永远是获取服务,这就像你去银行办事得先取号一样。拿到 SensorManager 后,我们就能查询设备上有没有陀螺仪(Sensor.TYPE_GYROSCOPE)。现在绝大多数手机都有,但稳妥起见,检查一下总是好的。接下来就是注册一个监听器,告诉系统:“我准备好接收旋转数据了,有新数据就赶紧通知我。” 这里有个关键参数叫采样延迟,比如 SENSOR_DELAY_

By Ne0inhk
介绍终身机器人学习的数据集LIBERO

介绍终身机器人学习的数据集LIBERO

1 LIBERO的作用 LIBERO是一个用于研究多任务和终身机器人学习中知识迁移的综合基准测试平台,LIBERO是基于robosuite框架构建的。它专注于机器人操作任务,这些任务需要两类知识: 1. 陈述性知识:关于物体和空间关系的知识 2. 程序性知识:关于运动和行为的知识 2 核心原理 任务生成与基准设计 LIBERO提供了一个程序化生成管道,原则上可以生成无限数量的操作任务。系统包含130个任务,分为四个任务套件,每个套件都有受控的分布偏移: * LIBERO-Spatial/Object/Goal:专注于特定类型知识的迁移 * LIBERO-100:包含需要迁移纠缠知识的100个操作任务 学习框架 系统采用模仿学习作为主要学习方法,因为任务使用稀疏奖励函数(任务完成时获得+1奖励)。LIBERO提供高质量的人类遥操作演示数据集用于训练。 算法与策略架构 LIBERO实现了三种视觉运动策略网络: * bc_rnn_policy:基于RNN的行为克隆策略 * bc_transformer_policy:基于Transformer的行为克隆策略

By Ne0inhk
龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南 前言:什么是“龙虾机器人”? 在开始部署之前,我们需要明确部署的对象。通常所说的“龙虾机器人”指的是开源项目 OpenClaw(曾用名:Clawdbot、Moltbot)。它由程序员彼得·斯坦伯格开发,是一个开源的、可本地部署的通用型AI代理系统。与ChatGPT等对话式AI不同,OpenClaw被赋予了操作系统的权限:它可以执行终端命令、读写文件、操控浏览器、安装软件,甚至通过MCP协议调用外部工具。 由于其强大的系统操控能力,安全性是部署时需关注的首要问题。官方及社区普遍建议:不要在主力机或存有敏感数据的生产环境直接裸奔部署,最好使用虚拟机、Docker容器或专用硬件(如Mac Mini或AI开发盒子)进行隔离。 第一章:环境准备与核心依赖 在安装OpenClaw之前,必须准备好运行环境。OpenClaw的核心由TypeScript编写,因此Node.js是必不可少的运行环境。此外,根据安装方式的不同,可能还需要Git、Docker或Python环境。 1.1 硬件建议与系统选择 * Linux

By Ne0inhk
Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装 前言 在进行 Flutter for OpenHarmony 的社交或客户支持类应用开发时,除了核心的 WebSocket 传输,如何规范化定义“消息(Message)”的数据结构以及处理复杂的对话逻辑状态,往往决定了项目的后期维护性。bavard 是一个专为高度语义化聊天交互设计的协议封装库。它能让你在鸿蒙端以极具逻辑感的对象模型来驱动对话流。本文将带大家了解如何利用 bavard 构建标准化的聊天架构。 一、原理解析 / 概念介绍 1.1 基础原理 bavard 将一次对话拆解为“参与者(Participants)”、“话题(Topics)”和“原子消息(Discrete Messages)”。它提供了一套完整的状态机,用于驱动从“

By Ne0inhk