Spec-Kit+Copilot打造AI规格驱动开发

Spec-Kit+Copilot打造AI规格驱动开发

作者:算力魔方创始人/英特尔创新大使 刘力

一,什么是Spec-Kit?

在传统的软件开发中,通常先有需求→ 写规格 → 再写代码;规格多数是“指导性文档”,而真正的业务逻辑和边界由程序员“翻译”出来。Spec-Driven Development(规格驱动开发)的理念是,将规格(spec)从“仅供参考”提升为可执行、可驱动的核心工件,直接引导后续设计、计划、任务拆解、实现等流程。spec-kit 是 GitHub 提供的一个工具集 / CLI / 模板库,用来在项目中落地这种流程!

Github: https://github.com/github/spec-kit

二,搭建运行环境

本节将指导您从零开发搭建Spec-Kit的运行环境。

第一步:在Ubuntu24.04上安装uv:

curl -LsSf https://astral.sh/uv/install.sh | sh

第二步:请首先按装Spec-Kit:

uv tool install specify-cli --from git+https://github.com/github/spec-kit.git

第三步:新建项目文件夹,例如“cube4060”;在cube4060文件夹路径,执行:

specify init my-website

然后,选择您所用的AI assistant,并键入“Enter”。笔者选用Github Copilot。

三,在VS Code中使用SpecKit

在VS Code中,打开my-website文件夹,然后在Github Copilot的Chat对话框中,依此输入命令:

  • 用 /speckit.constitution 定义团队或项目的原则和治理(code style、测试标准、性能要求等)
  • 用 /speckit.specify 写规格,专注于 “要做什么 / 为什么做” 而非技术细节
  • 用 /speckit.plan 在选定技术栈下做技术规划
  • /speckit.tasks:创建可操作的任务列表
  • /speckit.implement:执行所有任务并根据计划构建您的应用程序
详情参见:https://github.com/github/spec-kit

按照2-6步,输入命令后,可以获得开发好的网站,如下图所示:

四,总结

使用spec-kit 的价值在于:提升规格驱动的贯穿力、减少误解、标准化流程、让AI 融入软件开发流程。对那些希望把“写好规格 / 早期明确边界”作为核心竞争力的团队/项目,spec-kit 提供了一条可实践的路径。

如果你有更好的文章,欢迎投稿!

稿件接收邮箱:[email protected]

更多精彩内容请关注“算力魔方®

Read more

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

🦞 长文警告! 📜 文章目录(点击跳转,这波操作稳如老狗) 1. 前言:别再当云端 AI 的韭菜了,把“小龙虾”养在自己家 2. 第一步:给电脑装个“胃”——下载安装 Python(含官网地址) 3. 第二步:请个本地“大脑”——Ollama + Qwen 模型(白嫖党狂喜) 4. 第三步:搭个“龙虾笼子”——安装 OpenClaw(附项目地址) 5. 第四步:用 Python 写个“传话筒”,让你的小龙虾听你指挥 6. 第五步:第一次对话——你的本地贾维斯上线 7. 总结:白嫖虽好,但别让龙虾把你的电脑“钳”

OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 📌 摘要:OpenClaw(原名 Clawdbot/Moltbot)是 2026 年 1 月爆火的开源 AI 助手项目,由 PSPDFKit 创始人

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么? 昇腾 CANN 这几年是真在 “狂飙”,生态越做越大、功能越来越多、文档越写越厚…… 但问题也随之出现: CANN 支持 Python、C++、AscendCL、TBE、MindSpore、PyTorch Frontend、Kernel DSL……这么多"语言",到底学哪个?从哪入门? 别急,今天就给你一次性讲透,看完不再迷茫。 CANN 语言体系到底有多复杂? 整个 CANN 软件栈由多层 API 和 Kernel 构成,所以才会出现一堆「看似不同,实则分工明确」的语言接口 为了简化理解,我们可以把它粗暴分成三层: * 高层:框架调用

AMD显卡Vulkan后端兼容性终极指南:llama.cpp本地化部署完整解决方案

AMD显卡Vulkan后端兼容性终极指南:llama.cpp本地化部署完整解决方案 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为AMD显卡上运行llama.cpp时遇到的Vulkan初始化失败而烦恼吗?作为一款高性能的大语言模型C/C++实现,llama.cpp通过Vulkan后端能够充分利用GPU加速推理过程,但AMD显卡用户却常常在兼容性问题上碰壁。别担心,本文将为你提供从问题诊断到性能优化的完整解决方案,让你的AMD显卡在大语言模型推理中发挥真正实力!🚀 🔍 问题识别:为什么我的AMD显卡不兼容? 常见症状自查清单 当你遇到以下任一情况,说明遇到了AMD显卡Vulkan兼容性问题: ✅ 启动崩溃:程序直接退出,日志显示"vkCreateInstance failed" ✅ 加载卡顿:模型进度条停在0%,显示&