Cursor、Windsurf、Kiro、Zed、VS Code(含 Copilot) 等 AI 编程工具的 定价对比

以 USD/月为单位,2025 最新市场信息:(Windsurf)


1) Cursor(基于 VS Code 的 AI IDE)

计划价格主要特征
免费 Hobby$0基础 completions / 请求额度有限,试用高级功能两周 (Bito)
Pro$20/月无限 completions、约 500 高速 AI 请求 (Windsurf)
Teams$40/用户/月团队协作、管理功能 (Windsurf)
Ultra$200/月大量 AI 请求额度 (Bito)
Enterprise自定义企业级安全与支持 (Bito)

特点:AI 多行补全、上下文理解强、Pro 价格偏高但功能全面。(Bito)


2) Windsurf(AI IDE / 代码助理)

计划价格主要特征
Free$0每月入门额度 + 基础功能 (Windsurf)
Pro$15/月500 额度、高级模型访问 (Windsurf)
Teams$30/用户/月多用户、企业功能 (Windsurf)
Enterprise$60/用户/月更高额度与安全控制 (Windsurf)

特点:通常比 Cursor 便宜≈25%,基础额定额度与高级模型支持强。(Windsurf)


3) Kiro(Amazon 出品的 AI IDE/Agent)

计划价格说明
Free$0基础额度(约 50 credits) (Kiro)
Pro$20/月中等额度(约 1,000 credits) (Kiro)
Pro+$40/月更高额度(约 3,000 credits) (Kiro)
Power$200/月最大额度 (Kiro)

特点:按 credits/请求计费,适合需要较多 AI 任务的用户(AWS 生态优势)。(Kiro)


4) Zed(高性能 AI 编辑器 + AI 功能)

计划价格说明
Personal$0 永久编辑器免费,含基础编辑预测额度 (Zed)
Pro$10/月包含 $5 令牌额度,用于 AI(超用按 token 计费) (Zed)
Enterprise自定义组织级功能、安全控制 (Zed)

特点:编辑器免费、AI 功能 token-计费(可自带外部 API key 降低成本)。(Zed)


5) VS Code + GitHub Copilot(传统主流 IDE + AI 插件)

产品价格说明
VS Code免费主编辑器免费开源
Copilot$10/月(常见市场价)AI 补全/聊天/自动化(需要单独订阅)

特点:VS Code 本身免费,但高级 AI 功能需 Copilot 订阅;长期最广泛使用。(Tennisatw的博客 - Blog of Tennisatw)


简要对比总结

工具起步价定价策略适用场景
Cursor$0 → $20固定计划 + 高额 AI 请求需要强 AI 代码辅助与深度上下文能力
Windsurf$0 → $15较便宜 + 稳定额度预算敏感但需要 AI 帮助的开发者
Kiro$0 → $20+Credits 驱动计费AWS 化企业/大规模任务
Zed$0 → $10 + token编辑器免费、AI token 计费想节省成本或使用自己 API key
VS Code + Copilot$0 → ~$10标准插件订阅广泛开发者生态 + AI 基础补全

核心差异

  • 价格定位:Windsurf 通常比 Cursor 更便宜;Zed 的基础编辑器免费,AI 使用按 token 计费更灵活。(Windsurf)
  • 计费策略:Cursor/Windsurf 采用套餐额度;Kiro 按 credits 层级;Zed 采用 token 使用计费。(Kiro)
  • 用途区别:Kiro 偏向企业与复杂任务场景;Zed 强调编辑器性能与可扩展性;Cursor/Windsurf 偏重 AI IDE 协同辅助。(Medium)

Read more

【AIGC】ChatGPT 的 Prompt Hacker 技巧:让简历轻松通过 AI 筛选

【AIGC】ChatGPT 的 Prompt Hacker 技巧:让简历轻松通过 AI 筛选

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯背景 * 简化简历格式 * 💯简化 Prompt Hacker 的逻辑 * 使用 Prompt Hacker 技巧 * **示例 Prompt:引导 AI 筛选简历** * 如何利用 Prompt 优化简历筛选? * **示例 Prompt** * 💯在简历中注入指令词 * **为什么在简历中注入指令词?** * **具体操作方法** * **示例 Prompt**: * **操作步骤** * 提示与风险 * 💯极端场景验证:测试简历优化策略的有效性 * 验证方法 * 测试场景示例 * 测试结论 * 总结 * 💯实际应用:优化简历的操作步骤 * 操作步骤 * 💯注意事项:关于简历优化的核心思考 * 💯小结 💯前言 随着人工智能技术的迅猛发展,尤其是大语言模型如

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格? 从2024年知网正式上线AIGC检测功能开始,短短两年时间,"AI率"已经从一个新鲜名词变成了每个毕业生必须面对的硬性指标。2026年,各高校的AIGC检测政策进一步收紧和细化,要求也越来越明确。 那么,2026年AI率到底多少才算合格?不同学校的标准差别大吗?不合格会面临什么后果?本文将对这些问题进行深入解读。 一、AIGC检测已成为毕业论文审查的标配 回顾AIGC检测在高校中的普及历程,可以用"指数级扩散"来形容: * 2024年:知网上线AIGC检测功能,少数985/211院校开始试点,大部分学校处于观望状态 * 2025年:超过60%的本科院校和80%的研究生培养单位将AIGC检测纳入论文审查流程 * 2026年:AIGC检测基本实现全覆盖,包括专科院校在内的绝大部分高等教育机构都已建立相关制度 这一进程的背后,是教育部在2025年初发布的《关于加强高等学校学位论文学术诚信管理的指导意见》,其中明确提到"鼓励各高校引入人工智能生成内容检测机制,将AIGC检测作为论文质量保障的重要环节"。 虽然教育部没

重构AIGC视频生产范式:从零开始的智能视频创作全流程

重构AIGC视频生产范式:从零开始的智能视频创作全流程 【免费下载链接】WAN2.2-14B-Rapid-AllInOne 项目地址: https://ai.gitcode.com/hf_mirrors/Phr00t/WAN2.2-14B-Rapid-AllInOne 在AIGC技术迅猛发展的今天,视频内容创作正面临着从专业壁垒向大众普及的关键转型期。传统视频生成流程往往需要专业的模型组合、复杂的参数调试和高昂的硬件支持,这使得中小企业和个人创作者难以真正享受AI技术带来的创作红利。WAN2.2-14B-Rapid-AllInOne模型(简称WAN2.2极速视频AI)的出现,以其"1模型4步"的极简设计,重新定义了智能视频创作的效率标准,为行业带来了兼具专业性与易用性的一体化解决方案。 技术痛点解析:当前视频生成领域的效率瓶颈 多模型协同的复杂性困境 传统视频生成流程通常需要串联文本编码器、图像生成器、视频插值模型等多个独立组件,每个环节都需要单独配置参数和优化,不仅增加了操作难度,还容易因模型间兼容性问题导致生成效果不稳定。以主流的T2V(文本转视频)工作流为例,用户往往

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

手把手教你在AutoDL上用LLaMA-Factory微调GPT-OSS-20B模型(LoRA版)

本教程详细讲解如何在AutoDL云GPU上使用LLaMA-Factory框架微调GPT-OSS-20B大语言模型,包含完整的环境配置、训练流程、权重合并以及vLLM推理部署全流程。文章最后还分享了笔者踩过的坑和解决方案,建议收藏备用! 前言 最近在做一个智能采购相关的项目,需要对大语言模型进行微调,让它能够更好地理解采购场景的业务需求。在对比了多种方案后,最终选择了LLaMA-Factory + LoRA的组合,原因主要有三点: 1. 开箱即用:LLaMA-Factory提供了非常完善的训练框架,支持多种微调方式 2. 显存友好:LoRA相比全参数微调,显存占用大幅降低 3. 效果不错:在采购对话场景下,LoRA微调已经能够满足业务需求 本文将完整记录从环境配置到模型部署的全过程,希望能够帮助到有同样需求的小伙伴。 一、方案概览 在开始之前,先来看一下整体的技術方案: 组件选择说明微调框架LLaMA-Factory 0.9.4开源的大模型训练框架基础模型GPT-OSS-20B200亿参数的MoE大模型微调方式LoRA低秩适配,显存友好推理引擎vLLM高性能推