一键拯救大模型的前端审美能力 - 使用Frontend-Design Skill提升AI设计水平

# 一键拯救大模型的前端审美能力

## 前言

目前,在不额外给风格规范/设计系统/示例参考的情况下,拥有前端审美能力的编程模型只有4款:

- Gemini 3 Pro

- Gemini 3 Flash  

- Claude Opus 4.5

- Claude Sonnet 4.5

当我们看到GPT-5.2-Codex等明明其他方面都很厉害,但是唯独前端审美不行的模型时,常常感叹"哀其不幸、怒其不争"。那么,是否有快速提升他们前端审美能力的方法呢?

答案是:**使用 Anthropic 官方提供的 frontend-design skill**

## 什么是 Frontend-Design Skill?

Frontend-Design Skill 是 Anthropic 官方提供的一款技能包,可以为所有主流编程大模型(包括 GPT-5.2-Codex、GLM-4.7、M2.1 等)立即提升前端审美能力。

## 效果对比

### 不使用 skill 的效果

如果直接要求 GPT-5.2-Codex 重新设计 https://raphael.app 的首页,生成的界面往往:

- 字体缺乏层次感

- 动画效果生硬或不存在

- 质感和一致性较差

- 排版混乱

### 使用 Frontend-Design Skill 后的效果

使用 skill 后,无论是字体、一致性、动画效果、质感、排版,都有**质的飞跃**。

## 工作原理

Frontend-Design Skill 的原理其实很简单:

**大模型就像一个拥有全世界菜谱的顶级厨师。**

- **普通指令** "给我做顿饭" → 厨师为了保险或偷懒,会给你做一盘西红柿炒鸡蛋,虽然能吃,但很普通

- **使用 Frontend-Design Skill** → 等同于强调"你是米其林三星主厨,请务必使用分子料理技术,做一道展现'深海孤独感'的创意菜,拒绝使用常规调料",并详细给出什么是"分子料理技术"、什么是"深海孤独感"、还有哪些注意事项

Frontend-Design Skill 特别强调了:

- 动效(Motion)

- 质感(Texture)

- 字体(Typography)

- 一致性(Consistency)

- 情感化连接(Emotional Connection)

- 大胆美学(Bold Aesthetic)

- 意图表达(Intentionality)

这款 skill 是完全针对大模型工作原理和底层工作方法来写的,能够稳定发挥**化腐朽为神奇**、**四两拨千斤**的效果。

## 如何使用

### 对于 Claude Code 用户

```bash

npx skills-installer install @anthropic/claude-code/frontend-design --client claude-code

```

### 对于 Codex 用户(CLI 或 IDE Extension)

```bash

npx skills-installer install @anthropic/claude-code/frontend-design --client codex

```

### 对于 Cursor 用户

```bash

npx skills-installer install @anthropic/claude-code/frontend-design --local --client cursor

```

## 使用技巧

安装完成后,在需要前端设计能力的时候,只需要强调一句:

**"使用 frontend-design skill 来完成前端设计工作"**

即可召唤它。

### 注意事项

1. **新项目或不加约束**:这个 skill 会不安装任何依赖,快速完成 HTML

2. **老项目或显式强调依赖**:会按照你要求的技术栈来完成工作

3. **自定义优化**:在原版 frontend-design skill 的基础上,把你自己的品味(主色/字体/圆角/阴影/按钮风格)等写进去,成为一个新的 skill,让模型每次都按你的品牌调性出图

## 总结

Frontend-Design Skill 是一款教科书级的 skill,虽然简短,但完全针对大模型工作原理设计,能够充分调动大模型自身已经蕴含的强大能力。

无论你使用的是 Claude Code、Codex 还是 Cursor,都可以通过简单的命令安装,让你的 AI 编程助手瞬间获得专业的前端审美能力!

去试试吧!欢迎到评论区交流你的使用体验!

Read more

OpenClaw 中 web_search + web_fetch 最佳实践速查表

OpenClaw 中 web_search + web_fetch 最佳实践速查表

OpenClaw 中 web_search + web_fetch 最佳实践速查表 摘要:本文帮助读者明确 OpenClaw 网络搜索工具和不同搜索技能的的职责边界,理解“先搜索、再抓取、后总结”的最佳实践,并能更稳定地在 OpenClaw 中使用 tavily-search 与 web_fetch 完成网络信息搜索任务。主要内容包括:解决 OpenClaw 中 web_search、tavily-search、web_fetch、原生 provider 与扩展 skill 容易混淆的问题、网络搜索能力分层说明、OpenClaw 原生搜索 provider 与 Tavily/Firecrawl 扩展 skill 的区别、标准工作流、提示词模板、

MaxKB 新手保姆级教程:从零到一,亲手搭建你的专属 AI 知识库助手

MaxKB 新手保姆级教程:从零到一,亲手搭建你的专属 AI 知识库助手

你是否曾想过,能拥有一个只回答你自己领域知识的 AI 聊天机器人?一个能 7x24 小时为客户解答产品问题、为公司员工提供内部资料查询的智能客服?MaxKB 就是这样一款强大且开源的工具,它能帮助你轻松实现这个想法。 本文是一篇面向新手的、极其详尽的指南。将手把手带你完成 MaxKB 的安装、配置,并深入讲解如何创建和优化你的知识库,最后还将详细拆解其最强大的“高级应用”功能,让你真正掌握这个利器。 一、安装 MaxKB:三步搞定,小白也能行 对于新手而言,服务器环境配置往往是第一道坎。别担心,我们选用宝塔面板来简化一切操作。 1. 2. 执行安装命令 Docker 环境就绪后,点击面板左侧的 终端,这会打开一个命令输入窗口。复制以下这行命令,粘贴进去,然后按下回车键。 准备 Docker 环境 登录你的宝塔面板,在左侧菜单栏中找到并点击 docker。如果你是第一次使用,系统会提示你安装

【Unity-AI开发篇】| 游戏中接入DeepSeek实现AI对话,完整详细步骤

【Unity-AI开发篇】| 游戏中接入DeepSeek实现AI对话,完整详细步骤

* 前言 * 【Unity-AI开发篇】| 游戏中接入DeepSeek实现AI对话,完整详细步骤 * 一、DeepSeek * 1.1 介绍 * 1.2 效果展示 * 二、 获取DeepSeek模型API * 2.1 API调用文档 * 2.2 获取API密钥 * 2.3 模型价格 * 2.4 用量信息 * 三、接入Unity使用 * 3.1 新建Unity项目 * 3.1 AI对话脚本 * 3.2 搭建简易UI对话界面 * 3.3 其他模型API对话接入 * 总结 前言 * 大语言模型正深刻改变人机交互方式,DeepSeek 凭借强大的推理能力、文本快速响应能力及超长上下文,成为开发者接入 AI 对话的热门选择。 * 本文带你从零开始在

无监督学习在医疗AI领域的前沿:多模态整合、疾病亚型发现与异常检测

无监督学习在医疗AI领域的前沿:多模态整合、疾病亚型发现与异常检测

引言 人工智能技术在医疗领域的应用正经历着从辅助决策向深度赋能的转变。无监督学习作为人工智能的核心范式之一,因其无需大量标注数据、能够自动发现数据内在规律的特性,在医疗AI领域展现出独特优势。尤其在2025年,无监督学习技术在医疗AI应用中呈现出多模态整合、疾病亚型发现、异常检测等多方面的显著突破,为精准医疗提供了新的技术路径。 多模态与跨模态学习 TANGLE框架:基因表达与病理切片的多模态自监督学习 哈佛大学的研究团队开发的TANGLE框架代表了多模态无监督学习在医疗领域的重大突破。该框架通过结合基因表达数据与病理切片图像,实现了多模态自监督学习,为计算病理学带来了革命性变化。 TANGLE框架的核心创新在于利用转录组学数据指导全切片图像的嵌入表示,通过跨模态对比学习机制,使不同模态的数据在特征空间中实现有效对齐。这种多模态整合方法在少样本分类和原型分类等任务中表现出显著优于传统监督学习模型的性能,为医疗AI领域提供了一种新的范式。 研究表明,TANGLE框架在计算病理学分析能力方面取得了重大突破。通过整合基因表达数据和病理切片图像,该框架能够更全面地捕捉疾病的生物学