【AI应用开发工程师】-AI写代码总翻车?一文帮你解决(附实战案例)

【AI应用开发工程师】-AI写代码总翻车?一文帮你解决(附实战案例)

AI 写代码不按需求来?这个需求对齐 Skill 让你告别返工!

引言

你是不是也遇到过这种情况:兴冲冲地给 AI 提了个需求,结果它生成的代码完全跑偏,就像你点了一份红烧肉,端上来的却是番茄炒蛋?别急,这很可能不是 AI 的锅,而是需求没对齐!今天,我就来安利一个神器——​需求对齐 Skill​。

目录


什么是需求对齐模式?

简单说,这是一种让 AI“先理解,后动手”的交互模式。在没有这个 Skill 之前,每次提新需求都得和 AI“聊半天”,还经常返工。而需求对齐模式的核心目标是​完整理解需求,而非立即解决​。AI 会像一名谨慎的助理,反复确认你的意图,避免脑补或跑偏。

专业解释​:该模式基于“确认-反馈”循环,减少需求歧义,提升第一次生成代码的准确率。

大白话​:就像点餐时服务员复述你的菜单:“您要的是中辣、不加香菜的红烧肉对吧?”——对了才下锅!

生活案例​:你让朋友帮买咖啡,如果说“随便买一杯”,可能拿到美式;但如果说“要冰拿铁,半糖,加燕麦奶”,并让朋友复述一遍,踩坑率立马暴跌。

核心原则:三大“只”字诀

需求对齐模式遵循三个核心原则(见下图),堪称“防跑偏法宝”:

  1. 只理解,不解决​:AI 先当“倾听者”,不急于给出方案。
  2. 只复述,不扩展​:严格按你的原话复述,不添油加醋。

只提问,不猜测​:一旦有不确定性,立刻追问确认。

image.png

幽默点评​:这就像 AI 在说——“亲,我是直男思维,你不说透,我真猜不透啊!”

执行流程:三步搞定需求确认

需求对齐模式通过三步流程拆解需求:

在这里插入图片描述

步骤详解:

  • A1-需求复述​:AI 列出“我希望你做的事”和“明确条件”,等你确认。
  • A2-意图识别​:AI 区分显性需求(如功能补全)和潜在目标(如用户体验优化)。
  • A3-约束与前提​:AI 提出具体实现方案(如 UI 布局、数据持久化),并寻求你的同意。

专业提示​:建议“按功能级别进行确认”,避免长上下文失忆问题。

实际示例:视频提示词修改功能

一个案例——为视频生成工具添加“提示词修改功能”。以下是 AI 使用需求对齐模式后的交互片段(原图文字提取,排版整齐):

需求复述(A1 步骤):

  • 用户希望 AI 做的事​:
    1. 在“生成视频”或“重新生成”时,提供界面用于修改视频提示词。
    2. 修改后的提示词直接用于本次生成任务。
  • 明确条件​:
    • 覆盖“单个新生成”和“重新生成”两种场景。
    • 当前功能缺失,需补全。
  • AI 确认​:以上理解是否正确?是否需要补充?
在这里插入图片描述

意图识别(A2 步骤):

  • 显性需求​:生成前拦截流程,允许编辑 Prompt。
  • 潜在目标​:用户希望精细控制生成结果;可能想合并“画面裁剪”和“提示词确认”步骤,实现一站式操作。
  • 非目标​:本次不涉及批量修改功能。
  • AI 确认​:上述判断是否符合真实意图?
image.png

约束与前提(A3 步骤):

  • 交互位置​:AI 建议在现有裁剪弹窗中增加编辑框,避免多次弹窗。
  • 数据持久化​:修改后的提示词自动保存到镜头数据中。

AI 确认​:您是否同意该方案?确认后开始编码。

image.png

案例启示​:通过三步确认,AI 将模糊需求转化为可执行方案,减少了 80% 的返工可能!

如何应用这个 Skill?

  1. 安装 Skill​:在支持该模式的 AI 平台中加载“需求对齐 Skill”。
  2. 触发模式​:描述需求后,加上一句“​进入需求对齐模式​”。
  3. 逐步确认​:跟随 AI 的 A1-A3 步骤,耐心回答确认问题。
  4. 小步快跑​:尽量按功能模块拆分需求,避免一次性提大型需求。

小白友好版​:就像教新人做事——先说清楚“做什么”,再确认“为什么做”,最后商量“怎么做”,而不是直接甩一句“你懂的”。

结语:一起告别返工!

需求对齐模式不仅是技术工具,更是一种沟通哲学。它强迫我们慢下来想清楚需求,反而能加速整体效率。


互动引导

  • 评论区开放​:你在使用 AI 写代码时踩过哪些坑?这个 Skill 对你有启发吗?欢迎分享故事!
  • 转载声明​:转载请注明出处,禁止用于商业用途。

Read more

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL

LLaMA-Factory微调多模态大模型Qwen3-VL 目录 LLaMA-Factory微调多模态大模型Qwen3-VL 1. 显卡驱动 2. 模型微调 3. 模型导出 4. 模型部署:vLLM服务 5. 测试效果 1. 显卡驱动 * 显卡型号:NVIDIA GeForce RTX 3090 24G * 显卡驱动:NVIDIA-SMI 535.171.04             * CUDA: 12.2 ,Driver Version: 535.171.04   微调Qwen3-VL-2B模型,至少需要12G显存 2. 模型微调 项目采用大型语言模型工厂(LLaMA-Factory)对大模型微调,目前可支持Qwen3 / Qwen2.5-VL / Gemma 3 / GLM-4.1V / InternLM

GitHub Copilot 调用第三方模型API

GitHub Copilot 调用第三方模型API

一、说明 OAI Compatible Provider for Copilot 的作用是:把 Copilot/Copilot Chat 发出的“类似 OpenAI API 的请求”,转发到指定的 OpenAI-Compatible 服务端(例如 ModelScope 推理网关、自建的兼容网关等)。 ⚠️ Warning 登录 GitHub Copilot 的账号一定要是非组织方式开通 pro 会员的,不然无法管理模型。 推荐直接用免费的free账号登录即可。 二、插件安装 在 VS Code 扩展市场安装并启用: * GitHub Copilot * GitHub Copilot Chat * OAI Compatible Provider for Copilot (johnny-zhao.

【AIGC】与模型对话:理解与预防ChatGPT中的常见误解

【AIGC】与模型对话:理解与预防ChatGPT中的常见误解

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯模型的工作原理和用户期望差异 * 人工智能模型的基本工作原理 * 认知上的局限与误解 * 用户期望与模型实际能力的差距 * 精确理解用户意图的重要性 * 实际应用中的建议 * 💯具体案例分析:用户交互中的误区 * 园艺爱好者的具体问题 * 寻求情感支持的深度理解 * 对复杂科学问题的精准回应 * 💯如何有效避免误区和提升交流质量 * 明确提问的艺术 * 提供上下文信息的重要性 * 利用多次迭代来精细化回答 * 通过实例验证模型的回答 * 全面提供详细的背景信息 * 💯小结 💯前言 在与ChatGPT互动时,很多人会因为不了解其工作方式而产生误解。为了更好地利用这一强大的工具,我们需要学会如何清晰表达问题,提供必要的背景信息,从而减少沟通中的偏差。本文将聚焦于这些常见的误解,并探讨有效的解决策略,帮助你更高效地与ChatGPT进行对话,发挥其最大潜力。 如何为GPT-4编

再见 Copilot,你好 Agent:4000 字回顾 2025 AI 编程的“爆发元年”

再见 Copilot,你好 Agent:4000 字回顾 2025 AI 编程的“爆发元年”

大家好,我是十二。专注于分享AI编程方面的内容,欢迎关注。 从 2026 年初回看,2025 年无疑是编程史上极不平凡的一年。 一、技术奇点与开发范式的根本性重构 如果说 2023 年是“生成式AI”的元年,2024 年是“Copilot”的普及年,那么2025 年则被行业公认为“Agentic Coding”的爆发元年。 作为一名软件开发从业人员和 AI 编程博主,我在这一年里见证了软件工程领域的深刻变革:开发者不再仅仅是代码的编写者,而逐渐演变为 AI 代理的架构师与指挥官。 这一转变并非一蹴而就,而是由底层模型能力的跃升、上下文处理技术的突破以及全新交互协议的标准化共同催化的结果。 1.1 技术底座的跃迁:推理模型与百万级上下文 2025 年的 AI 编程产品之所以能呈现出井喷之势,首先归功于底层大模型在推理能力上的质变。 以 OpenAI 的 GPT-5 系列、