HOW - AI Skills 入门(一)

文章目录

这波热潮主要来自:

  • OpenAI 的 Agents / Tools 体系
  • Anthropic 推的 MCP(Model Context Protocol)
  • 各种 AI IDE(如 Cursor)开始强调“规则 + 工具 + 上下文能力模块”

一、先搞清楚:什么是“Skills”

在 AI 语境下,Skills 通常指:

一组可复用的“能力模块”
= Prompt + Tool + Context + Rules 的组合

比如:

  • SQL 分析 Skill
  • Git 操作 Skill
  • Code Review Skill
  • UI 生成 Skill
  • Swagger 解析 Skill

它不只是 prompt,而是:

输入 → 规则 → 调用工具 → 输出结构化结果 

本质是:

把 AI 从“聊天”升级为“可控能力单元”。

二、为什么前端工程师要关注

未来趋势是:

前端不仅写 UI,而是构建 AI 工作流系统。

Skills 对前端的影响:

  1. 开始设计“AI 功能型组件”
  2. 写 Tool 接口
  3. 定义 Schema
  4. 控制上下文注入

这已经是“AI 产品工程”能力,而不是普通前端。

三、前端工程师如何入门 Skills

第一阶段:理解 Agent 思维

重点理解:

  • Prompt 不是一句话,而是系统指令
  • 工具调用(Function Calling)
  • JSON Schema
  • 上下文管理

建议:

  1. 看 OpenAI 的 Function Calling 文档
  2. 理解什么是 Tool
  3. 学会定义 JSON Schema

第二阶段:自己实现一个最小 Skill 系统

可以基于:

  • React
  • Node
  • 或直接在浏览器端

可以做一个简单 Demo:

输入:SQL 语句 Skill: - 校验 - 格式化 - 生成接口函数 输出:TS 请求函数 

第三阶段:学习 MCP 思维

MCP 是由 Anthropic 推出的模型上下文协议。

它解决的是:

如何安全、可扩展地向 AI 暴露能力

你可以:

  • 理解什么是 context provider
  • 理解工具注册机制
  • 模拟一个简单 MCP server

四、对前端来说最重要的 Skill 能力

Prompt 架构能力

  • 系统 prompt
  • 角色设定
  • 规则注入
  • 防止 hallucination

Tool 设计能力

要会定义:

{ name:"generate_api", parameters:{ type:"object", properties:{ path:{ type:"string"}}}}

这其实是接口设计能力升级版。

上下文裁剪能力

  • Chat 太长怎么办?
  • 如何控制上下文?

这正是 Skill 设计核心。

UI + AI 结合能力

未来前端最值钱的能力是:

设计 AI 可视化交互界面

例如:

  • Prompt Builder
  • Tool 管理面板
  • Skill 组合流程图

五、不要走弯路

很多人入门 Skills 会犯两个错:

❌ 只学 prompt
❌ 只用现成工具

你真正要学的是:

如何构建“可控的 AI 系统”。

六、未来趋势判断

前端工程师会分成两类:

  1. 纯 UI 工程师(价值下降)
  2. AI 产品工程师(价值上升)

Skills 属于第二类核心能力。

七、终极总结

Skills 本质是:

把 AI 能力模块化、工具化、工程化。

它是:

  • 类型设计能力的升级
  • API 架构能力的升级
  • 组件化思维的升级

Read more

AirSim无人机仿真入门(一):实现无人机的起飞与降落

AirSim无人机仿真入门(一):实现无人机的起飞与降落

概述: 安装好所需要的软件和环境,通过python代码控制无人机进行起飞和降落。 参考资料: 1、知乎宁子安大佬的AirSim教程(文字教程,方便复制) 2、B站瑜瑾玉大佬的30天RL无人机仿真教程(视频教程,方便理解) 3、AirSim官方手册(资料很全,不过是纯英文的) AirSim无人机仿真入门(一):实现无人机的起飞与降落 * 1 安装AirSim * 1.1 参考教程 * 1.2 内容梳理 * 1.3 步骤总结 * 2 开始使用 AirSim * 2.1 参考教程 * 2.2 内容梳理 * 2.3 步骤总结 * 3 撰写python控制程序 * 3.1 参考教程 * 3.2 内容梳理

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言 我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多 * 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源 * 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制 PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群 第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统 1.1 引言与相关工作 1.1.1 引言 如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类: 全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1] ———— TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)》 部分全身控制,

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 遥感数据集 NWPU VHR-10数据集是 10个类别地理空间目标检测的挑战性数据集,共650张图片。 YOLO和COCO格式 数据集按默认划分比例:390张训练集、130张验证集、130张测试集。 手动标注了757架飞机、302艘船只、655个储罐、390个棒球场、524个网球场、159个篮球场、163个田径场、224个港口、124座桥梁和598辆车辆。 📊 一、数据集总体信息 项目描述数据集名称NWPU VHR-10(Northwestern Polytechnical University Very High Resolution 10-class Dataset)任务类型遥感图像中的地理空间目标检测(Object Detection in Remote Sensing Images)图像总数650 张(均为高分辨率遥感图像,源自 Google Earth 等平台)图像分辨率约 600×600

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

小米 “养龙虾”:手机 Agent 落地,智能家居十年困局被撬开

3月6日,小米正式推出国内首个手机端类 OpenClaw Agent 应用 ——Xiaomi miclaw,开启小范围邀请封测。这款被行业与网友戏称为小米 “开养龙虾” 的新品,绝非大模型浪潮下又一款语音助手的常规升级,而是基于自研 MiMo 大模型、具备系统级权限、全场景上下文理解能力的端侧智能体。 作为深耕智能家居领域的行业媒体,《智哪儿》始终认为:智能家居行业过去十年的迭代,始终没能跳出 “被动执行” 的底层困局。而 miclaw 的落地,不止是小米在端侧 AI 赛道的关键落子,更是为整个智能家居行业的底层逻辑重构,提供了可落地的参考范本。需要清醒认知的是,目前该产品仍处于小范围封测阶段,复杂场景执行成功率、端侧功耗表现、第三方生态适配进度等核心体验,仍有待大规模用户实测验证。本文将结合具象场景、量化数据与多维度视角,客观拆解 miclaw 的突破价值、现实挑战,以及它对智能家居行业的长期影响。 01 复盘行业困局:智能家居十年 始终困在 “被动执行”