AI全栈之路:Cursor+Claude3.7一整套APP原型图UI生成

AI全栈之路:Cursor+Claude3.7一整套APP原型图UI生成
背景

对于大部分工作三年的开发者来说,技术栈不在是瓶颈,从一门语言到另一个门语言,从一个技术栈到另一个技术栈,只需要投入一两周的时间就可以快速入门,从前端、移动端到后端,甚至数据分析,算法,从TS、Java、GO到C++,有了一门技术的基础再学习另一门技术会快很多,很多时候缺乏的是实战了和规模化的用户经验,不过在AI时代,这都不是问题了。

AI IDE(Cursor、trae)可以让我们在只使用自然语言描述需求后快速帮助我们实现对应端的工程代码,还可以帮助我们实现部署。技术上的问题绝大部分都可以通过AI帮助我们解决。卡在我们全栈路上的另一个问题是UI设计稿的问题。对于前端或者移动端开发来讲,尤其是移动端,强依赖设计稿帮我们实现美观的应用。但是从工程师到UI设计师的迁移跨度就太大了,一时半会没有办法快速迁移。目前市面上虽然也有一些生成设计稿的AI工具,但是效果差强人意。本文我们介绍一种“曲线救国”方式的设计稿生成方式,帮助我们快速生成UI设计稿,进一步实现全栈开发运营自己的作品之路。

先上一张效果图:

在这里插入图片描述
Claude 生成骑行应用H5

Claude直接生成Figma等UI设计稿比较困难,但是可以使用提示词生成H5页面,再让H5页面转成Figma设计稿。

Claude API国内无法直接使用,我们可以使用Cursor,Trae或者Github Copilot中提供的Cluade能力,具体选用看大家喜好。我们这里已VSCode 中Github Copilot为例,接下来输入提示词:

你是一位全栈工程师,同时精通产品规划和UI设计,请根据下面需求文档生成设置移动端的html网页,页面扁平,图标精致 # 产品需求文档(PRD) ## 项目名称 骑士圈 — 专业骑行社交与路线推荐App ## 一、项目背景 ## 二、产品目标 ## 三、核心用户群 ## 四、功能模块设计 ### 4.1 路线推荐模块 ### 4.2 轨迹记录模块 ### 4.3 社交互动模块 ### 4.4 路线上传与审核模块 ### 4.5 用户个人中心 

接下来根据提示,AI帮我们自动生成工程代码:

在这里插入图片描述

针对页面中问题通过Chat模式与Claude交互自动帮助我们改正。生成出完整页面工程后可以在浏览器中预览,根据需求继续调整页面内容。

H5页面转Figma设计稿
部署静态页面

H5页面生成完成后可以借助Figma的一款插件实现H5转设计稿的能力。在使用插件前需要先将H5部署到云端,让别人可以访问到。这里我们借助vercel,vercel可以将我们Github上面的项目直接进行远程部署。

首先将代码上传到github,这里不再赘述。上传完成后使用github账号登录vercel,可以直接找到我们github项目:

在这里插入图片描述

选择我们上传的项目进行导入,导入完成后生成对应地址:

在这里插入图片描述
Figma插件安装

H5页面转换Figma设计稿,一来Figma插件html.to.design

在这里插入图片描述

安装完成后打开插件输入我们刚才生成的页面地址,点击导入:

在这里插入图片描述

导入完成后就可以看到我们页面的标注等信息了:

在这里插入图片描述

当然也可以直接将设计稿交给Cursor,让Cursor生成移动端项目。

总结

本文针对全栈开发者面临的UI设计瓶颈问题,提出了一套AI驱动的设计稿生成方案。开发者可借助Cursor或GitHub Copilot调用Claude模型,通过自然语言描述生成骑行类H5页面代码,并在浏览器中实时调试优化。随后将代码部署至Vercel云端,利用Figma的「html.to.design」插件将网页URL直接转换为带标注的设计稿。这种“代码先行,逆向转稿”的曲线方案,有效解决了AI直接生成设计稿效果不佳的痛点,配合AI编程工具形成从需求到落地的完整工作流,大幅降低全栈开发中的设计门槛。

Read more

LLaMA-Factory微调:如何选择正确的精度类型

LLaMA-Factory微调:如何选择正确的精度类型 为什么精度类型选择如此重要 最近在使用LLaMA-Factory进行大模型微调时,我发现一个关键问题:float32和bfloat16这两种精度类型的选择会极大影响训练效果和显存占用。作为开发者,我们需要在模型效果和资源消耗之间找到平衡点。 精度类型决定了模型训练时的数值表示方式,直接影响: - 显存占用大小 - 训练速度 - 模型收敛效果 - 计算稳定性 这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含LLaMA-Factory的预置环境,可快速部署验证不同精度类型的实际表现。 理解float32与bfloat16的核心差异 float32:高精度但高消耗 float32是单精度浮点数,具有以下特点: * 32位存储(1位符号,8位指数,23位尾数) * 数值范围广(约±3.4×10³⁸) * 计算精度高 * 显存占用大(是bfloat16的两倍) bfloat16:平衡精度与效率 bfloat16是Brain Floating Point格式,特点包括: * 16位存储(1位

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软 Copilot Cowork 深度解析:用 Kotlin + 147API 手搓一个 AI Agent

微软最近发布的 Copilot Cowork 在技术圈炸开了锅。它变了。它不再是那个只会补全代码的插件,而是变成了你的 “Coworker”(同事)。基于 Anthropic 的 Claude 构建,它现在能像真人一样处理复杂任务。 作为开发者,我们不仅要会用,更要懂得背后的原理。今天我们就来拆解一下 Copilot Cowork 的核心逻辑,并教你如何利用 Kotlin 和 147API 构建一个属于自己的简易 AI Agent。 从 Chatbot 到 Agent 传统的 Copilot 就像一个实习生,你给它一个指令,它执行一个动作。而 Copilot Cowork 更像是一个成熟的合作伙伴。它具备了 感知(Perception)、规划(Planning) 和 执行(Execution)

AIGC技术与进展

AIGC技术与进展

AIGC(Artificial Intelligence Generated Content,人工智能生成内容)技术是近年来人工智能领域最具突破性和广泛应用前景的方向之一。它通过深度学习、大模型、多模态融合等核心技术,实现了文本、图像、音频、视频等内容的自动化、智能化生成,正在深刻重塑内容创作、生产方式和人机交互模式。 一、AIGC的发展历程 AIGC的发展大致可分为三个阶段: 1. 早期萌芽阶段(1950s–2010s初) * 主要依赖规则系统和模板方法,如自动摘要、模板新闻。 * 内容形式单一、缺乏灵活性,应用场景有限。 * 代表性事件:1957年首支计算机作曲《Illiac Suite》。 2. 沉淀积累阶段(2010–2020) * 深度学习兴起,GPU算力提升,互联网数据爆发。 * 关键技术突破: * 2014年:生成对抗网络(GAN)提出,推动图像生成质量飞跃。 * 2017年:Transformer架构诞生,奠定大语言模型基础。

开源大模型涨价策略分析:Llama 3.5 与 GLM-5 的商业化博弈

2026年2月12日,智谱AI宣布GLM Coding Plan套餐涨价30%起,同期Meta Llama 3.5的商业授权也在悄然提价。这场看似突然的涨价潮,实则是AI产业从技术狂热转向价值理性的历史性转折。当开发者习惯了"补贴式"廉价API后,涨价公告如同警钟,宣告开源大模型商业化博弈进入深水区。 行业背景:供需逆转下的价格逻辑重构 过去两年中国大模型产业深陷惨烈"百模大战"。字节豆包曾将API定价压至0.0008元/千tokens的行业冰点,阿里通义千问GPT-4级模型降价97%,整个市场陷入"谁先涨价谁就输"的囚徒困境,企业靠融资补贴维持运营。 2026年供需关系根本逆转: 1. Agent需求爆发:大模型从聊天玩具变为生产力工具,GLM Coding Plan上线即售罄 2. 企业付费意愿提升:智谱企业级客户贡献六成毛利,AI工具ROI清晰可见 3. 算力通胀传导:从英伟达B200涨价、存储成本上升到云服务提价(AWS、