Spec-Kit+Copilot打造AI规格驱动开发

Spec-Kit+Copilot打造AI规格驱动开发

作者:算力魔方创始人/英特尔创新大使 刘力

一,什么是Spec-Kit?

在传统的软件开发中,通常先有需求→ 写规格 → 再写代码;规格多数是“指导性文档”,而真正的业务逻辑和边界由程序员“翻译”出来。Spec-Driven Development(规格驱动开发)的理念是,将规格(spec)从“仅供参考”提升为可执行、可驱动的核心工件,直接引导后续设计、计划、任务拆解、实现等流程。spec-kit 是 GitHub 提供的一个工具集 / CLI / 模板库,用来在项目中落地这种流程!

Github: https://github.com/github/spec-kit

二,搭建运行环境

本节将指导您从零开发搭建Spec-Kit的运行环境。

第一步:在Ubuntu24.04上安装uv:

curl -LsSf https://astral.sh/uv/install.sh | sh

第二步:请首先按装Spec-Kit:

uv tool install specify-cli --from git+https://github.com/github/spec-kit.git

第三步:新建项目文件夹,例如“cube4060”;在cube4060文件夹路径,执行:

specify init my-website

然后,选择您所用的AI assistant,并键入“Enter”。笔者选用Github Copilot。

三,在VS Code中使用SpecKit

在VS Code中,打开my-website文件夹,然后在Github Copilot的Chat对话框中,依此输入命令:

  • 用 /speckit.constitution 定义团队或项目的原则和治理(code style、测试标准、性能要求等)
  • 用 /speckit.specify 写规格,专注于 “要做什么 / 为什么做” 而非技术细节
  • 用 /speckit.plan 在选定技术栈下做技术规划
  • /speckit.tasks:创建可操作的任务列表
  • /speckit.implement:执行所有任务并根据计划构建您的应用程序
详情参见:https://github.com/github/spec-kit

按照2-6步,输入命令后,可以获得开发好的网站,如下图所示:

四,总结

使用spec-kit 的价值在于:提升规格驱动的贯穿力、减少误解、标准化流程、让AI 融入软件开发流程。对那些希望把“写好规格 / 早期明确边界”作为核心竞争力的团队/项目,spec-kit 提供了一条可实践的路径。

如果你有更好的文章,欢迎投稿!

稿件接收邮箱:[email protected]

更多精彩内容请关注“算力魔方®

Read more

语音识别效率革命:whisper-large-v3-turbo一键部署指南

语音识别效率革命:whisper-large-v3-turbo一键部署指南 【免费下载链接】whisper-large-v3-turbo 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-large-v3-turbo 在人工智能语音识别领域,模型的性能与效率往往难以兼得。然而,最新发布的whisper-large-v3-turbo模型彻底打破了这一困境,在保持与whisper-large-v3近乎一致的识别质量基础上,实现了高达8倍的速度提升。对于需要处理大量语音数据的开发者、企业用户以及研究人员而言,这一突破性进展意味着更低的时间成本、更高的工作效率和更广泛的应用可能性。本教程将详细介绍如何通过极简的一键部署流程,快速将这一高效能模型应用到实际业务场景中。 模型优势深度解析:为何选择whisper-large-v3-turbo whisper-large-v3-turbo的核心竞争力来源于其创新性的模型架构优化。相较于前代模型,开发团队通过动态注意力机制调整、量化参数压缩以及推理流程重构三大技术手段,在保证语音识别

By Ne0inhk

革命性AI开发平台llama-recipes:一站式掌握Llama模型全栈应用

革命性AI开发平台llama-recipes:一站式掌握Llama模型全栈应用 【免费下载链接】llama-recipesExamples and recipes for Llama 2 model 项目地址: https://gitcode.com/gh_mirrors/ll/llama-recipes 想要快速上手Llama模型开发吗?llama-recipes项目正是您需要的终极解决方案!作为Meta官方推出的AI开发平台,llama-recipes提供了从模型推理、微调到端到端应用的完整开发指南,让您轻松掌握大模型技术的核心应用。 什么是llama-recipes? llama-recipes是一个专为Llama模型设计的综合性开发平台,集成了丰富的示例代码、最佳实践和实用工具。无论您是AI初学者还是资深开发者,这个项目都能为您提供全方位的技术支持。 图:RAFT模型在RAG架构中的完整训练与推理流程 核心功能模块详解 快速入门指南 项目提供了完整的入门教程,包括getting-started/build_with_llama_4.ipynb等核心文档,帮助

By Ne0inhk

Stable Diffusion艺术风格宝典:833种风格一键获取

Stable Diffusion艺术风格宝典:833种风格一键获取 【免费下载链接】StableDiffusion-CheatSheetA list of StableDiffusion styles and some notes for offline use. Pure HTML, CSS and a bit of JS. 项目地址: https://gitcode.com/gh_mirrors/st/StableDiffusion-CheatSheet 还在为Stable Diffusion生成的艺术风格不够理想而烦恼吗?想要快速找到心仪的AI艺术创作工具和风格参考吗?今天为您推荐一款专业的Stable Diffusion风格参考宝典,让您的创作效率提升数倍! 什么是Stable Diffusion风格参考工具? 这是一个专为Stable Diffusion用户打造的离线资源库,包含了833种经过手工测试的艺术风格。无论您是AI艺术新手还是专业创作者,都能在这里找到灵感源泉。 三大核心优势 1. 海量风格资源 项目收录了从古典到现代、从写实到奇幻的多样化艺术风格

By Ne0inhk

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操

SmolVLA高算力适配:TensorRT加速可行性分析与ONNX导出实操 1. 项目背景与核心价值 SmolVLA作为一款专为经济实惠机器人技术设计的紧凑型视觉-语言-动作模型,在资源受限环境下展现出了令人印象深刻的性能。这个约5亿参数的模型能够同时处理视觉输入、语言指令和动作输出,为机器人控制提供了端到端的解决方案。 在实际部署中,我们经常面临一个关键挑战:如何在保持模型精度的同时,进一步提升推理速度以满足实时控制需求?这就是TensorRT加速技术发挥作用的地方。通过将SmolVLA模型转换为TensorRT引擎,我们有望获得显著的性能提升,特别是在NVIDIA GPU硬件上。 本文将带你深入了解SmolVLA模型的TensorRT加速可行性,并提供详细的ONNX导出实操指南,帮助你在自己的机器人项目中实现更高效的推理性能。 2. TensorRT加速技术解析 2.1 TensorRT的核心优势 TensorRT是NVIDIA推出的高性能深度学习推理优化器和运行时库,它通过多种技术手段提升模型推理效率: * 图层融合:将多个连续的操作层合并为单个内核,减少内

By Ne0inhk