一个 skill ,增加大模型前端的审美能力

上周,我让 AI 帮我做个落地页。

十分钟过去了,生成出来的东西——

白色背景,紫色渐变,Inter 字体。

我直接关了。

image-20260119230347828

你也遇到过吧?

用 AI 生前端,出来的东西都长一个样。

背景非白即黑,标题栏永远是紫色渐变,字体不是 Inter 就是 Roboto,配色永远是那套蓝绿红黄。

不是说不能用,但——

太像 AI 了。

一眼看过去就是"机器生成",没有灵魂,没有个性。


直到昨天,我发现了一个东西。

Anthropic 官方出的一个 skill,叫 frontend-design

让我再试一次。

img

这次不一样了

同样的提示词,同样的模型。

我只加了一句话:

“使用 frontend-design skill”

结果呢?

深色工业风背景,等宽科技字体,黄青撞色。

数据卡片有微妙的发光效果,图表有精心设计的动效。

布局不对称,元素有重叠。

一眼看过去——这像人做的。


skill 是什么?

你可以把它理解成一个"插件"。

一个包含 SKILL.md 文件的文件夹,里面写着告诉 AI「在特定场景下该怎么做」的指令。

frontend-design 这个 skill 做的事很简单:

把"什么是好的前端设计"这个判断标准,写清楚。


官方怎么说?

LinkedIn 上,Claude 官方账号发过一条动态:

“我们发布了一个新的前端设计 skill。它专注于几个目标提示效果良好的领域:字体、动画、配色、布局……”

GitHub 在这:github.com/anthropics/skills

搜 “frontend-design skill” 就能找到。


五个原则

我去 GitHub 看了下这个 skill 的内容。

核心就五条:

字体

❌ Inter、Roboto、Arial
✅ 有性格的、独特的字体组合

配色

❌ 紫色渐变、均匀分布的配色
✅ 大胆的主色 + 尖锐的点缀色

动效

❌ 零散的微交互
✅ 精心编排的页面加载动画

布局

❌ 对称、可预测的网格
✅ 非对称、重叠、破格元素

细节

❌ 纯色背景
✅ 渐变网格、噪点纹理、几何图案

一句话:拒绝通用,拥抱独特。


怎么装?三种方法

方法一:命令行(推荐)

打开终端,一行命令:

npx skills-installer install @anthropics/claude-code/frontend-design --client claude-code 

如果你用 Codex,把 --client 改成 codex

如果你用 Cursor:

npx skills-installer install @anthropics/claude-code/frontend-design --local --client cursor 

方法二:手动下载

  1. 打开 github.com/anthropics/skills
  2. 找到 skills/frontend-design 文件夹
  3. 下载整个文件夹
  4. 放到 ~/.claude/skills/ 目录下
  5. 重启工具

方法三:skill0 市场

国内有个团队做了个 Skills 聚合平台,叫 skill0。

地址:skill0.atypica.ai

搜索 “frontend-design”,直接点击下载。


怎么用?

装好后,提示词里加一句就行:

“使用 frontend-design skill 来完成前端设计”

就这么简单。


真实案例

有人在开发者社区分享过实战经验:

第一步,用这个 skill 生成初版登录页,重点看"设计风格"和"结构布局"对不对。

第二步,在同一 skill 指导下迭代优化。

最后整个页面的质感直接上升了一个量级。

不是那种"紫色渐变"的通用模板,而是有设计感、有品牌调性的页面。


还有个案例。

作者直接用这个 skill 优化 Waytoagi 的首页。

提示词就一句:

“使用 frontend-design skill,优化一下 https://www.waytoagi.com”

从平庸的"AI 风格",变成了有设计感的专业页面。


什么时候用?

不是所有情况都需要。

做简单的 CRUD 后台、内部工具,用不用差别不大。

但你做这些的时候:

  • 产品官网
  • 营销落地页
  • SaaS 产品界面
  • 数据可视化 Dashboard
  • 需要惊艳效果的展示页

这个 skill 就能派上用场。


进阶玩法

你可以在原版 skill 的基础上,加自己的东西。

比如品牌主色、偏好的字体、圆角风格、阴影参数。

这样每次生成都符合你的品牌调性,效果更稳定。


为什么这么管用?

它不是教 AI “怎么做”,而是教 AI “怎么选”。

AI 已经见过无数优秀设计。

它缺的,是判断标准。

有了标准,AI 就能调用它已有的知识库,做出正确的选择。

不是注入新能力,而是激活已有能力。


最后

2025 年是 MCP 元年,2026 年是 Skills 元年。

真正的分水岭不在「能不能做」,而在「能不能把判断写成系统、让交付稳定发生」。

frontend-design skill 就是这样一个系统。

官方出品,完全免费,现在就能用。

去试试吧。


参考资源

Read more

开源大模型深度研究报告:LLaMA 2_3、Qwen与DeepSeek技术对比分析

开源大模型LLaMA 2/3、Qwen 与 DeepSeek 技术对比分析 研究背景与目标 2025 年,开源大模型生态正经历前所未有的技术爆发期。以 Meta 的 LLaMA 系列、阿里巴巴的 Qwen 系列和 DeepSeek 公司的 DeepSeek-R1 为代表的三大开源模型体系,在技术架构、训练方法和应用性能方面展现出各自独特的创新路径(164)。这些模型不仅在学术研究领域发挥着重要作用,更在企业级应用、边缘计算和多模态处理等场景中展现出巨大潜力。 本研究报告旨在全面分析 LLaMA 2/3、Qwen 和 DeepSeek 三大开源模型的技术特点、性能表现和应用价值,为研究者和工程师提供系统性的技术对比分析。通过深入剖析各模型的架构设计、训练策略和实际部署成本,本报告将帮助读者理解不同模型的技术优势和适用场景,为模型选择和应用部署提供决策参考。 一、三大开源模型技术架构深度解析 1.1 LLaMA 3 系列架构创新

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

解锁AIGC新时代:通义万相2.1与蓝耘智算平台的完美结合引领AI内容生成革命

前言 通义万相2.1作为一个开源的视频生成AI模型,在发布当天便荣登了VBench排行榜的榜首,超越了Sora和Runway等业内巨头,展现出惊人的潜力。模型不仅能够生成1080P分辨率的视频,而且没有时长限制,能够模拟自然动作,甚至还可以还原物理规律,这在AIGC领域中简直堪称革命性突破。通过蓝耘智算平台,我们能够轻松部署这个模型,创建属于自己的AI视频生成工具。今天,我将为大家深入探讨通义万相2.1的强大功能,并分享如何利用蓝耘智算平台快速入门。 蓝耘智算平台 1. 平台概述 蓝耘智算平台是一个为高性能计算需求设计的云计算平台,提供强大的计算能力与灵活服务。平台基于领先的基础设施和大规模GPU算力,采用现代化的Kubernetes架构,专为大规模GPU加速工作负载而设计,满足用户多样化的需求。 2. 核心优势 * 硬件层: 蓝耘智算平台支持多型号GPU,包括NVIDIA A100、V100、H100等高性能显卡,能够通过高速网络实现多机多卡并行计算,突破单机算力瓶颈。 * 软件层: 集成Kubernetes与Docker技术,便于任务迁移与隔离;支持PyTo

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式

Whisper-large-v3多任务并行:同一服务同时运行转录/翻译/摘要三模式 基于 OpenAI Whisper Large v3 构建的多语言语音识别 Web 服务,支持 99 种语言自动检测,可同时运行转录、翻译和摘要三种处理模式。 1. 项目概述与核心价值 Whisper-large-v3 是 OpenAI 推出的强大语音识别模型,拥有 15 亿参数,支持 99 种语言的自动检测与转录。本项目基于该模型二次开发,构建了一个支持多任务并行的 Web 服务,可以在同一服务中同时处理语音转录、文本翻译和内容摘要三种任务。 传统语音识别服务的痛点: * 需要部署多个服务处理不同任务 * 数据在不同系统间流转效率低 * 维护成本高,资源利用率低 本方案的创新价值: * 单服务集成三大核心功能 * 减少数据传输开销,提升处理效率 * 统一接口简化开发集成 * 最大化利用 GPU 资源 通过这个方案,你可以用一段音频输入,

从FP16到FP8:我是如何让Stable Diffusion 3.5提速40%而不丢画质的

从FP16到FP8:我是如何让Stable Diffusion 3.5提速40%而不丢画质的

两年前我第一次接触Stable Diffusion时,生成一张512x512的图片需要等待整整12秒。今天,我的优化版本能在1.8秒内完成同样任务,而且画质更优——这中间的差距,就是我想和你分享的全部。 这篇文章不会有晦涩的术语堆砌,只有我亲自踩坑、验证有效的实战经验。 01 FP8不是数字游戏,而是算力革命的起点 去年看到NVIDIA发布H100支持FP8格式时,我第一反应是:“这不过是又一次精度压缩罢了。”直到亲手将Stable Diffusion 2.1迁移到FP8后,我才意识到自己错得多离谱。 FP8与FP16的核心差异不是数字大小,而是内存带宽的解放。 当模型权重从16位降到8位,显存占用直接减半。这意味着什么?意味着批量生成时,你可以同时处理更多图片;意味着那些因为显存不足而无法加载的LORA模型,现在有了运行空间。 但这里有个陷阱:不是所有模型层都适合FP8。 在转换过程中,我发现注意力机制层对精度极其敏感。粗暴地将整个模型转为FP8,会导致生成的人物面部扭曲、细节模糊。正确的做法是分层处理: python # 错误做法:整个模型转换 model.to