什么是 AI Agent 中的 Skills?它有什么用?

什么是 AI Agent 中的 Skills?它有什么用?

👨‍⚕️主页: gis分享者
👨‍⚕️感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅!
👨‍⚕️收录于专栏:AI大模型原理和应用面试题

文章目录


一、🍀Skills

1.1 ☘️概念

Skills 就是给 AI Agent 写的操作手册,本质上是一份结构化的指令文件。当 Agent 碰到某类任务,就去读对应的 Skill,按里面的步骤一步步执行,不用你每次从头教它。

比如你想让 AI 帮你创建 Cursor 的自定义规则文件,规则文件放哪个目录、格式长啥样、有哪些字段,这些东西写一个 create-rule 的 Skill 就搞定了。Agent 碰到相关任务自动加载,不需要你每次重复沟通。

1.2 ☘️作用

1)把某个领域的专业知识、操作步骤、注意事项打包成一个文件,Agent 读了就能干活,不需要每次重复教

2)同一个任务不管执行多少次,Agent 都按 Skill 定义的流程走,输出质量可预期

3)通过编写不同的 Skills,让一个通用 Agent 具备各种垂直领域的专业能力,不需要重新训练模型

一个典型的 Skill 文件通常是 Markdown

Read more

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

2026 届毕业生必看:各大学位论文 AIGC 检测率要求汇总,超过这个数真的危险了!

一、 前言 随着 2026 届毕业季的临近,很多小伙伴在写论文时都离不开 AI 的辅助。但今年最让大家头疼的不再仅仅是查重率,而是新出的AIGC 疑似度。 很多学校已经明确:如果 AIGC 检测超过阈值,直接取消答辩资格! 今天我就帮大家梳理一下目前主流的检测要求,以及如何正确应对。 二、 各大高校 AIGC 检测率“红线”汇总 虽然各校标准不一,但根据目前各大高校反馈的最新政策,基本可以划分为三个梯度: 风险等级AIGC 疑似度范围学校处理建议安全区< 20%基本无风险,属于合理参考范围。预警区20% - 40%导师需进行人工核查,可能要求提供写作痕迹证据。高危区> 40%极大可能被判定为“代写”或“学术不端”,面临延毕风险。 注意: 部分顶尖院校(如 C9

protege+Neo4j+前端可视化知识图谱项目(教育领域)

protege+Neo4j+前端可视化知识图谱项目(教育领域)

声明:自己的学习笔记,仅供交流分享。 注意其中JDK版本的切换! 目录 1、工具下载 1.1protege的安装 1.2Neo4j的安装 2、Neo4j导入protege文件 2.1启动Neo4j 2.2protege导出owl文件转turtle文件 2.3导入Neo4j 1. 清除数据库中的所有数据 2. 初始化 RDF 导入配置 3. 导入 RDF 数据 4.查询所有(部分)数据 5.查询边关系 6.一些细节 3、Neo4j导出JSON文件 4、可视化前的操作 4.1利用python对数据进行处理 4.2学习VUE&Echarts 1、工具下载 1.

【论文阅读】【yolo系列】YOLOv10: Real-Time End-to-End Object Detection

【论文阅读】【yolo系列】YOLOv10: Real-Time End-to-End Object Detection

前言 阅读论文,最直接的获取创新改进的内容。但其架构条理性相对偏弱,有空了再阅读源码,完整的梳理下与YOLOV8的区别。 论文链接: https://arxiv.org/pdf/2405.14458v1 Abstract 【已有YOLO的缺陷】 在过去几年中,YOLOs因其在计算成本和检测性能之间取得的有效平衡,已成为实时目标检测领域的主流范式。研究人员探索了YOLOs的架构设计、优化目标、数据增强策略等,取得了显著进展。然而,NMS的延迟:依赖于后处理中的非极大值抑制(NMS)阻碍了YOLOs的端到端部署,并对推理延迟产生了不利影响。模型组件的计算冗余:YOLOs中各种组件的设计缺乏全面彻底的检查,导致明显的计算冗余,限制了模型的能力。这使得其效率次优,同时存在巨大的性能提升潜力。 【YOLOV10的改进】 在本工作中,我们旨在从后处理和模型架构两个方面进一步推进YOLOs的性能-效率边界。为此提出无 NMS 训练的一致性双重分配方法,实现具有竞争力的性能和低推理延迟。引入了YOLOs的 整体效率-准确度驱动 模型设计策略。本工作从效率和准确性的角度全面优化了YOLOs

宇树开源新里程碑:UnifoLM-VLA-0模型让机器人走进生活

宇树机器人各种炫酷的表演我们都见过,尤其是同王力宏跳舞那场演唱会,真的很震撼。 刚刚,宇树科技开源的UnifoLM-VLA-0模型,则让机器人开始走进生活。 UnifoLM-VLA-0通过独特的动作分块预测与动力学约束技术,让视觉-语言模型(VLMs)从单纯的图文理解进化为具备物理常识的具身大脑,在仅使用340小时真机数据的情况下实现了通用操作的极致泛化。 转载 , 宇树开源新里程碑:UnifoLM-VLA-0模型让机器人走进生活 它利用Qwen2.5-VL作为基座,通过极其高效的数据策略和创新的动力学预测架构,解决了传统模型手眼不协调的顽疾,并在宇树G1人形机器人上实现了惊人的多任务通用能力。 从图文理解到具身大脑的进化 视觉-语言模型虽然能够精准地识别出一张图片里有一个红色的苹果,也能写出关于苹果的诗歌,但它们缺乏物理常识。 它们不知道这个苹果有多重,不知道捏起它需要多大的力气,更不知道如果手滑了苹果会以什么轨迹掉落。 UnifoLM-VLA-0基于开源的Qwen2.5-VL-7B,使用跨机器人和通用场景的多任务数据集进行持续的预训练,让模型继承