开源分享:AI Agent Skills 资源合集,一键安装 Cursor/Claude Code/Copilot 技能包

前言

最近在使用 Cursor 和 Claude Code 进行开发,发现 Agent Skills 这个功能非常强大——它可以让 AI 更专业地完成特定任务,比如代码审查、生成 Git Commit、自动生成测试用例等。

但网上的资源比较零散,于是我整理了一个开源合集分享给大家。

项目地址

GitHub:https://github.com/JackyST0/awesome-agent-skills

什么是 Agent Skills?

Agent Skills 是 AI Agent 可以发现和使用的指令、脚本和资源包。

简单来说,就是给 AI 一套「技能说明书」,让它知道如何更专业地帮你完成工作。

比如:

  • 代码审查 Skill:AI 按照最佳实践审查代码,给出改进建议
  • Git Commit Skill:自动生成规范的提交信息
  • 单元测试 Skill:根据代码自动生成测试用例

支持哪些平台?

平台全局目录项目目录
Cursor~/.cursor/skills/.cursor/skills/
Claude Code~/.claude/skills/.claude/skills/
GitHub Copilot~/.copilot/skills/.github/skills/
Windsurf~/.windsurf/skills/.windsurf/skills/
Codex~/.codex/skills/.codex/skills/

一键安装

macOS / Linux

# 交互式模式curl -sL https://raw.githubusercontent.com/JackyST0/awesome-agent-skills/main/install.sh |bash# 直接安装所有 Skills 到 Cursorcurl -sL https://raw.githubusercontent.com/JackyST0/awesome-agent-skills/main/install.sh |bash -s -- -p cursor -a 

Windows (PowerShell)

# 下载并运行irm https://raw.githubusercontent.com/JackyST0/awesome-agent-skills/main/install.ps1 |iex# 或者先下载再运行Invoke-WebRequest-Uri "https://raw.githubusercontent.com/JackyST0/awesome-agent-skills/main/install.ps1"-OutFile "install.ps1".\install.ps1 

项目收录内容

官方资源

  • Anthropic 官方 Skills 仓库(56k+ Stars)
  • Agent Skills 官方规范文档

社区精选

  • awesome-cursorrules(37k+ Stars)
  • everything-claude-code(32k+ Stars)
  • awesome-claude-skills(27k+ Stars)

示例 Skills

项目提供 5 个可直接使用的示例:

  1. code-review - 代码审查
  2. git-commit - Git 提交信息生成
  3. unit-test-generator - 单元测试生成
  4. api-doc-generator - API 文档生成
  5. debug-helper - 调试助手

使用效果

安装 code-review Skill 后,让 AI 审查代码:

输入:帮我审查这段代码:def add(a,b): return a+b 输出: ## 代码审查报告 ### 发现的问题 - [ ] 参数之间缺少空格 - [ ] 运算符周围缺少空格 - [ ] 缺少类型提示 - [ ] 缺少文档字符串 ### 改进后的代码 def add(a: float, b: float) -> float: """计算两个数的和。""" return a + b ### 评分 - 代码质量:6/10 - 可读性:7/10 - 可维护性:5/10 

总结

项目还在持续完善中,欢迎 Star 支持!

如果你有好用的 Skills,也欢迎提交 PR。

Read more

快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码使用,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考

快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码使用,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎点赞 + 收藏 + 关注哦 💕 快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码,玩游戏)。罗斯方块游戏技术解析:从前端实现到工程化思考 📚 本文简介 本文解析了一个基于HTML5+CSS3+JavaScript的俄罗斯方块网页游戏实现。项目采用模块化设计,包含index.html、style.css和script.js三个核心文件,遵循前端开发最佳实践。HTML结构采用语义化布局,使用Canvas双画布分别渲染主游戏区和预览区。CSS运用Flexbox布局、毛玻璃效果、过渡动画等现代特性,实现响应式设计。JavaScript处理游戏逻辑,包括方块旋转、碰撞检测等核心算法。项目兼顾性能与用户体验,是前端游戏开发的经典案例。全文从架构设计到实现细节进行了深度技术解析。 目录 * 快过年了,写个游戏玩玩,放松下,解析俄罗斯方块游戏(可直接复制代码,玩游戏)。罗斯方块游戏技术解析:

Nanbeige4.1-3B快速上手:用curl命令直连WebUI API完成批量推理任务

Nanbeige4.1-3B快速上手:用curl命令直连WebUI API完成批量推理任务 1. 引言:为什么需要绕过WebUI直接调用API? 如果你已经通过WebUI体验过Nanbeige4.1-3B的强大能力,可能会遇到这样的场景:需要一次性处理几十甚至上百个文本任务,比如批量生成产品描述、分析大量用户反馈,或者为数据集中的每条记录生成摘要。这时候,如果还在WebUI里一条条手动输入、点击生成,效率就太低了。 有没有更高效的方法?当然有。Nanbeige4.1-3B的WebUI背后,其实是一个标准的HTTP API服务。这意味着,我们可以直接用命令行工具(比如curl)或者写个简单的脚本,直接和这个API“对话”,实现自动化、批量化的文本生成。这就像是从手动拧螺丝升级到了电动螺丝刀,效率提升不是一点半点。 这篇文章,我就带你绕过漂亮的WebUI界面,直连背后的API引擎,用最朴素的curl命令,解锁Nanbeige4.1-3B的批量推理能力。你会发现,原来命令行操作大模型,可以如此简单直接。 2. 准备工作:确认你的WebUI服务正在运行 在开始“飙车”之前,得先

gpt-oss-20b-WEBUI功能全测评,Ollama集成太方便了

gpt-oss-20b-WEBUI功能全测评,Ollama集成太方便了 你有没有试过这样的场景:刚下载完一个大模型镜像,打开网页界面却卡在加载页;调了半小时参数,生成结果还是断句生硬、逻辑跳脱;想换模型又得重装环境,显存爆红、报错满屏……别急,这次我们实测的 gpt-oss-20b-WEBUI 镜像,把“开箱即用”四个字真正落到了实处——双卡4090D上一键启动,vLLM加速跑满吞吐,网页界面清爽无干扰,最关键的是,它和Ollama的集成不是“能连”,而是“连得毫无负担”。 这不是一个需要你查文档、改配置、编译依赖的实验性项目。它是一套已经调优完毕、开网页就能聊、敲命令就能跑、导出API就能集成的完整本地推理方案。本文将带你从零开始,真实走一遍它的全部能力:界面交互是否顺滑?响应速度到底多快?支持哪些实用功能?Ollama集成究竟有多省事?以及——它到底适不适合你手头那个还没上线的AI小项目? 1. 镜像初体验:三步启动,五秒进对话页 很多WEBUI镜像的“快速启动”,往往藏在一堆前置条件里。而gpt-oss-20b-WEBUI的启动路径异常干净,我们全程在ZEEKLOG星图

C#调用Python接口运行GLM-4.6V-Flash-WEB模型的完整流程

C#调用Python接口运行GLM-4.6V-Flash-WEB模型的完整流程 在企业级应用开发中,越来越多的业务场景开始要求系统具备“看懂图像、理解语言”的能力——比如电商平台的内容审核、智能客服中的视觉问答、医疗影像辅助分析等。然而,大多数传统.NET项目并不原生支持现代AI模型,尤其是像多模态大模型这类依赖PyTorch生态的技术栈。 有没有一种方式,既能保留现有C#系统的稳定性与成熟架构,又能快速接入前沿的视觉语言模型?答案是肯定的:通过HTTP API桥接C#与Python,让.NET前端调用基于Python部署的GLM-4.6V-Flash-WEB模型服务。 这不仅是一次简单的跨语言通信实践,更是一种面向生产环境的“轻量级AI集成范式”。它不追求技术炫技,而是专注于解决实际问题:如何低成本、高效率地将开源大模型落地到工业系统中。 为什么选择 GLM-4.6V-Flash-WEB? 智谱AI推出的 GLM-4.6V-Flash-WEB 并非普通意义上的科研模型,而是一款为Web服务量身打造的轻量化多模态推理引擎。它的设计哲学很明确:性能够用、延迟够低、部署够简单。