【AI】trae Skills使用方法

【AI】trae Skills使用方法

一、Skills是什么?

Skill可以理解为agent的技能,Claude官方的解释是,使用 Skills 可以提升执行特定任务的能力。比如,可以在本地就能调用 Skills 玩转图片、Excel、Word、PDF 等处理操作,它和agent、mcp对比:

特性对比表格

特性SkillsSub-AgentsMCP (Model Context Protocol)
目的用专业知识、工作流程、资源扩展 Claude生成自主代理处理复杂子任务连接外部工具和数据源
调用方式模型自动发现(基于上下文)父代理显式生成MCP 服务器工具调用
持久性触发时加载到上下文独立运行,返回结果无状态工具执行
最适合领域专业知识、工作流程、模板并行任务、研究、探索外部 API、数据库、第三方服务
上下文使用渐进式披露(元数据→指令→资源)每个子代理有独立上下文最小上下文(仅工具定义)
复杂度低(只需 SKILL.md + 可选文件)中等(需要编排)中-高(需要服务器设置)
示例代码审查指南、部署工作流程「研究这个主题」、「探索代码库」GitHub API、数据库查询、Slack 集成

表格说明

  • Skills:适用于需要特定领域知识或标准化流程的场景,通过轻量级文件(如 SKILL.md)实现功能扩展。
  • Sub-Agents:适合分解复杂任务为并行子任务,需显式调用并管理子代理的上下文隔离。
  • MCP:专注于与外部系统的无状态集成,需额外设置服务器支持工具调用。

二、Skills的网站有哪些

Agent Skills 终极指南:
https://github.com/libukai/awesome-agent-skills
Skill下载库:
https://skills.sh/

Skill下载库2:
https://skillstore.io/zh-hans/skills

三、如何在trae中使用Skills

官网文档:
https://docs.trae.ai/ide/skills
官网文档描述:

在这里插入图片描述


文档中介绍了3种技能使用的方法:

方式一:通过对话,由 AI 自动创建技能

你可以直接通过对话创建技能。你只需向 AI 描述你的需求,AI 就会自动为你生成对应技能的 SKILL.md 文件。例如:

帮我在 ./trae/skills 目录下创建一个新的技能 技能的名字叫 xxx 这个技能可以帮我做以下事情: - xxx - xxx - xxx 

方式二:手动创建技能

通过指定技能类型、技能名称、描述和指令,手动创建技能。

创建自定义技能的步骤

技能类型
选择技能的类型,例如“对话技能”、“任务技能”或“信息查询技能”。

技能名称
为该技能起一个简短且有辨识度的名称,例如“天气查询”或“日程提醒”。

技能描述
描述该技能的功能以及触发条件,例如“当用户询问天气时,提供实时天气信息”。

技能指令
定义技能被触发时AI应遵循的规则或信息,例如“仅提供用户指定城市的天气数据,不包含无关信息”。

字段说明表格

字段名称说明
技能类型选择技能的分类,如对话、任务或信息查询。
技能名称简短且有辨识度的名称,用于快速识别技能功能。
技能描述详细说明技能的功能、适用场景及触发条件。
技能指令明确AI在触发技能时应执行的规则或提供的信息,确保行为符合预期。
在这里插入图片描述


点击 按钮。
对于全局技能,添加后,它会直接出现在 面板的 页签下。
对于项目技能,添加后,TRAE 将自动在当前项目的 .trae/skills/{skill_name} 目录下新建一个 SKILL.md 文件。文件内包含你的自定义技能配置。同时,该技能也会出现在 面板的 页签下。
(可选) 对于项目技能,根据指令中的描述,在 {skill_name} 文件夹下手动添加所需的脚本等资源。

方式三:手动导入外部技能

若你需要使用外部已创建的技能,可以直接将 SKILL.md 文件或包含 SKILL.md 以及其他相关文件的 .zip 文件导入至 TRAE。
前往 设置 > 。

  1. 在 部分,点击 创建 按钮。
  2. 在 窗口中,上传一个 SKILL.md 文件或一个包含 SKILL.md 文件的.zip

文件,然后选择 (全局/项目)。
TRAE 会分析所上传的技能文件,然后自动填充技能名称、描述和指令字段。

在这里插入图片描述

四、在对话中使用技能

方式一:手动调用技能

对话时,当你明确知道需要使用某个技能时,你可以直接向 AI 发送指令,从而精准控制 AI 的输出。例如:“用 codemap 技能总结一下这个分支的改动”。

方式二:由 AI 自动调用技能

在执行任务时,AI 会结合当前任务内容与各技能中定义的 “适用场景” 或 “何时使用” 之类的描述,判断是否需要加载某个技能,并在合适的阶段自动调用相关技能。
例如,假设你定义了一个代码审核技能,其触发条件为 “当用户请求代码反馈或评审时”。当你提出 “这个函数写得如何”、“帮我审核以下代码” 之类的请求时,AI 会识别到这类请求与代码审核技能的相关性,并在无需额外指令的情况下加载并使用该技能,以完成对应的代码分析与反馈。

五、示例

在这里插入图片描述

Read more

openclaw飞书机器人权限管理

为了确保 OpenClaw 既能顺畅运行,又不至于因权限过大导致安全隐患,建议在飞书开发者后台 - 权限管理中,按照以下清单进行勾选。 这份清单分为基础必备和进阶功能两部分: 1. 基础必备权限(无论个人还是团队,必须开启) 这些权限保证机器人能“听到”指令并“开口”说话: * im:message:p2p_msg:readonly (接收单聊消息) —— 允许机器人和你 1 对 1 聊天。 * im:message:group_at_msg:readonly (接收群聊中@机器人的消息) —— 团队场景下,机器人只响应被 @ 的内容,保护群隐私。 * im:message.p2p_msg:send (发送单聊消息) —— 机器人回复你的基础。 * im:message.

MIPI DSI 4-Lane液晶屏驱动开发实战:从时序解析到FPGA对接

1. MIPI DSI 4-Lane液晶屏基础认知 第一次接触MIPI DSI 4-Lane液晶屏时,我被它复杂的时序图吓到了——直到把它想象成高速公路的车道管理才豁然开朗。这种显示屏采用串行差分信号传输,4条数据通道就像双向四车道的高速公路,每条lane的传输速率可达480MHz(实测GOWIN开发板环境),比传统并行RGB接口节省了约60%的引脚资源。 以常见的5寸720x1280分辨率屏幕为例,其核心参数如下表: 参数项典型值技术要点接口类型MIPI DSI 4-Lane支持LP/HS双模式分辨率720(H)×1280(V)60Hz刷新率色彩深度24bit RGB实际传输采用RGB888压缩为RGB565功耗特性LP模式<10mAHS模式峰值电流约120mA同步模式SYNC EVENT需要精确控制消隐区时序 在硬件连接时,我曾犯过把CLK和DATA线序接反的低级错误。正确的接线顺序应该是: 1. 先对接CLK+/CLK-差分对(相当于交通信号灯) 2. 再按D0+/D0-到D3+/D3-顺序连接数据线 3. 最后接电源和背光(VCC/VLED等) 2.

Whisper.cpp移植参考:如何在PyTorch镜像中部署语音识别模型

Whisper.cpp移植参考:如何在PyTorch镜像中部署语音识别模型 1. 为什么要在PyTorch镜像里跑Whisper.cpp? 你可能已经注意到一个有趣的现象:Whisper.cpp是用C/C++写的,而PyTorch镜像默认装的是Python生态——这看起来有点“不搭”。但现实中的工程落地,从来不是非此即彼的选择。 真实场景往往是这样的:你的团队刚用PyTorch训练完一个语音增强模型,现在需要把降噪后的音频送进ASR系统做转录;或者你在Jupyter里做语音数据探索分析,顺手想调用本地ASR快速验证一段录音内容;又或者你正开发一个端到端语音处理Pipeline,前端用PyTorch做特征提取,后端需要轻量级、低依赖的推理引擎。 这时候,硬生生拉起一个纯C环境反而增加运维负担。而PyTorch-2.x-Universal-Dev-v1.0镜像恰恰提供了最理想的“中间地带”:它自带CUDA驱动、已配置好清华/阿里源、预装了tqdm和requests等实用工具,更重要的是——它没有预装任何与Whisper.cpp冲突的LLVM或OpenMP版本,编译兼容性极佳。