要成为AI的主人,而不是被它所绑架

要成为AI的主人,而不是被它所绑架
这两年,AI
编码工具确实给开发效率带来了很大提升。写脚本更快了,补测试更轻松了,搭原型更顺手了,连很多文档工作都被大幅压缩。笔者自己在持续使用
GPT-5.4 和 Claude
一段时间后,也真切感受到了这种效率红利。与此同时,随着使用越来越深入,笔者也开始经常在架构师论坛和技术社区里,围绕 AI
开发的安全性、保密性、稳定性、可控性等问题,与多位大厂架构师持续交流。讨论得越多、实践得越久,我越认同一个判断:小项目、低敏项目、单人维护项目,AI
基本没有大问题;但一旦进入多人协作、长期演进、涉及核心资产和生产责任的项目,AI
如果没有边界、规范和审计,就很容易从“效率工具”变成“失控放大器”。

很多人讨论 AI,还停留在“能不能更快把功能做出来”这个层面。但架构师的关注点从来不只是“能不能开发出来”,而是“这个系统能不能长期、安全、可控地活下去”。对架构师而言,安全性、保密性、可用性、可靠性、稳定性、可扩展性、可治理性,永远排在“先把功能跑起来”前面。AI 当然能用,但如果用法不对,前期越快,后期越危险。

阿里巴巴对18个AI编码代理在100个真实代码库上进行了测试,每个代码库的测试时间长达233天。结果惨败。事实证明,通过一次测试很容易。但要让代码在八个月内保持稳定运行而不出现任何问题,这才是人工智能的真正弱点

最近发现一个巨牛的人工智能学习网站,里面的内容一点都不枯燥,把 AI
知识讲得通俗易懂,还特别风趣幽默,不管是想入门的小白,还是想补基础的朋友,都超适合,可以点击去学习

一、安全性和保密性问题:这不是建议,而是红线

在所有 AI 开发风险里,安全性和保密性必须排在第一位,而且要说得足够重。很多人有一个很危险的误区:以为自己只是发了一段代码、一个报错、一份配置,没有什么大不了。真正的问题不在于单次发送了什么,而在于长期、连续、碎片化地把项目上下文喂给模型之后,模型会逐步拼出整个系统的关键轮廓。

对企业来说,完整代码仓一旦被暴露,泄露出去的可能不仅是实现细节,更是产品壁垒。核心推荐算法、风控规则、任务编排方式、数据校验逻辑、用户画像模型、供应链定价策略,都可能通过代码和配置被还原。对政府和国央企来说,风险更高。因为很多系统的敏感性并不体现在“代码是否复杂”,而体现在权限体系、业务流转、组织流程、网络边界和安全策略。一份接口文档,可能暴露部门间的数据流转方式;一份配置文件,可能暴露中间件、注册中心和环境划分方式;一份数据样本,可能暴露真实字段规则、业务状态机甚至审计链路。这些内容如果被完整送到境外模型服务,性质就完全不同了。

公开案例已经足够说明问题。2023 年,三星出现员工将源代码和内部资料输入 ChatGPT 的事件,随后企业迅速收紧政策。苹果曾限制内部使用 ChatGPT 和 GitHub Copilot,JPMorgan、Verizon 也曾对员工使用外部生成式 AI 进行限制。它们不是“不懂 AI”,恰恰相反,正是因为太懂风险,所以才会第一时间踩刹车。大公司如此,中小公司更不能掉以轻心。很多创业团队和小外包团队为了省时间,最容易把生产报错、客户样本数据、数据库结构、支付回调字段、权限接口约定整段发给模型。表面看是“快了半小时”,实际上是在把最值钱的知识资产一点点送出去。

所以第一条结论必须明确:不可能也不应该把本地完整项目完整发送给 AI 一次,更不能让 AI 对整个仓库自行搜索后再把全量上下文发往外部云端。 对企业、政府、国央企项目而言,这不是优化建议,而是最基本的安全红线。

二、可控性问题:AI 能写代码,但不保证沿着同一条主线写代码

AI 的第二个大问题,是可控性。很多团队一开始觉得它特别好用,因为它几乎总能给出一个“像样的答案”。问题在于,软件工程不是一次性答题,而是持续演进。今天这个功能让 GPT 写,明天另一个功能让 Claude 写,后天换个人、换个 prompt、换个模型,出来的往往就不是同一种思路。

小项目里,这种差异未必致命,最多只是风格不统一。但一旦进入多人协作和长期维护,这种不可控就会迅速累积成结构性问题。比如,今天用户认证模块被 AI 按一种方式抽象,明天订单模块又被另一种方式封装;今天日志体系是统一埋点,明天 AI 为了“快速修复”绕过了标准组件;今天缓存策略写在服务层,后天 AI 又把同类逻辑塞回控制层。每一处改动看起来都“能跑”,但整个系统却在慢慢失去主线。

大公司里,这种问题会体现为标准失效。一个平台团队规定了统一网关、统一鉴权、统一日志,可不同小组如果都依赖不同 AI 工具自由生成实现,最终还是会出现“同一件事七八种写法”。小公司里,这个问题更直接。往往是两三个人轮流用不同模型改同一个项目,短期内速度惊人,三个月后却发现没人敢重构,因为没人说得清哪一段是基于什么上下文、什么假设写出来的。

AI 最容易制造的错觉,就是“它很聪明,所以它会自然走向正确结构”。但现实恰恰相反:AI 会优先给出局部最像答案的东西,却不会天然替你维护全局一致性。 如果没有架构约束、目录约束、分层约束和评审约束,AI 写得越多,系统越容易偏航。

三、稳定性问题:一次跑通很容易,长期不塌才是真难点

很多团队在使用 AI 后会产生一种错觉:代码生成出来了,测试也过了,于是觉得这件事已经“解决了”。事实上,一次运行成功,和长期稳定可维护,是两回事。AI 当前最大的短板之一,不在于它写不出功能,而在于它很难持续、稳定地维护一个长期演进的系统。

2026 年 3 月 4 日公开的论文《SWE-CI》给了这个问题一个很有力的提醒。这项研究由中山大学与阿里巴巴集团研究者提出,测试并不是看模型能不能“一次修好一个问题”,而是看它在真实代码库的连续维护过程中,能否不破坏原有功能。论文包含 100 个真实代码库任务,平均跨越 233 天、71 次连续提交。围绕这项研究的公开解读普遍提炼出一个结论:很多模型短期表现可以,但一旦进入长期维护,回归问题会不断累积。这恰恰说明,AI 的强项更像是“阶段性产出”,而不是“长期守住系统稳定”。

公开事件中也有类似信号。2025 年,Replit 相关 AI 代理事故引发广泛关注,外界讨论的焦点不是“它能不能写代码”,而是它在自动执行过程中触碰了不该触碰的生产数据,并且没有可靠地守住边界。大公司里,稳定性问题通常表现为发布后隐性回归增加,测试负担变重,修一个点带出另一个点;小公司里,稳定性问题更像“今天这版能跑,明天一改就炸,改到最后谁也不敢上线”。

所以必须承认一个现实:通过一次测试很容易,但让代码在八个月甚至更长时间内稳定运行、不出现结构性回归,这才是 AI 在工程维护中的真正弱点。 如果团队只看眼前速度,不看长期稳定,最终一定会被后续维护成本反噬。

四、多人协同问题:AI 不会自动形成共识,只会放大已有混乱

多人协作是 AI 使用中另一个极容易被低估的问题。单人项目里,一个人用一个模型,逻辑链条还算完整;一旦多人同时参与,每个人的提示方式、理解方式、审美方式、风险意识都不同,AI 产物就会迅速变得碎片化。

例如,大厂里一个中台项目往往涉及多个团队协作。如果没有统一约束,A 团队用一种方式设计接口,B 团队用另一种方式补错误码,C 团队再用第三种方式写权限校验,最后系统表面上是同一套服务,内部却是多种工程哲学混杂。小公司则常常出现更典型的情况:前端一个人用 GPT,后端一个人用 Claude,测试再根据另一个模型生成用例,结果每个人都“效率大增”,但整个项目的术语、命名、分层、异常策略完全对不上。

AI 不会帮团队自动统一语言,也不会帮组织自动沉淀规范。它只会把现有组织的问题放大。如果组织本身没有主线、没有规范、没有清晰边界,那么 AI 带来的不是协同,而是加速分裂。今天大家都觉得自己省了时间,半年后你会发现,真正消耗掉的,是跨人理解成本、代码整合成本和历史追溯成本。

五、责任问题:出了事,背锅的永远不是模型,而是使用它的人和组织

AI 的最后一个核心问题,是责任性问题。很多人习惯性地把 AI 看成一个“很会写东西的助手”,于是潜意识里会觉得,如果哪里出了问题,那大概率是“模型不靠谱”。但在真实世界里,责任从来不会落到模型身上,而只会落到人和组织身上。

Air Canada 的聊天机器人曾给用户提供错误信息,最终承担责任的是航空公司,而不是机器人。美国纽约律师因为使用 ChatGPT 生成虚假判例并提交法庭,最终被处罚的是律师和律所,而不是模型供应商。这两个案例其实已经把逻辑说透了:AI 可以参与生成,但不能替代责任主体。

放到软件工程里,道理完全一样。一个金融系统因为 AI 生成的边界判断错误导致风险控制失效,责任在公司;一个政务系统因为 AI 补出的权限逻辑存在漏洞导致数据越权,责任在建设方;一个国央企生产系统因为 AI 生成的调度策略存在隐蔽缺陷引发事故,责任不可能推给“大模型理解错了”。如果组织在使用 AI 时没有审查、没有审批、没有留痕、没有回滚机制,那么出问题只是时间问题。

真正可行的解决方案:不是拒绝 AI,而是把 AI 放进治理框架
*

说了这么多,并不是要否定 AI。恰恰相反,AI 仍然是这个时代非常有价值的生产力工具。关键不在于“用不用”,而在于“怎么用”。

第一,必须先划红线,再谈提效。

完整仓库、核心算法、生产配置、真实数据样本、内网拓扑、证书密钥、关键接口文档,原则上不能直接交给外部尤其是境外模型。能私有化尽量私有化,能本地化尽量本地化,至少也要做到最小必要暴露。

第二,必须先定主线,再让 AI 参与。

架构、分层、目录结构、依赖边界、异常机制、日志规范、权限策略,必须由人先定好。AI 可以在明确边界内补代码、补测试、补文档,但不能代替架构师决定整个系统怎么长。

第三,必须把 AI 关进规则里。

什么目录能改,什么操作不能做,生成代码要过哪些测试,要经过谁评审,要不要灰度,要不要回滚预案,都应该制度化、工具化,而不是靠个人自觉。提示词模板、技能固化、代码扫描、单测门禁、Secrets 扫描、审计留痕,一个都不能少。

第四,多人协作必须有总线。

团队可以用不同 AI,但不能没有统一技术主线。谁负责公共能力,谁负责基础设施,谁负责业务模块,什么能改,什么不能随便动,要足够清晰。AI 只能加速统一路线,不能替代统一路线。

第五,核心模块必须人能看懂、敢负责。凡是涉及鉴权、账务、风控、调度、审计、加解密、事务一致性、消息可靠性等关键部分,负责人必须能讲清楚逻辑,必须能解释为什么这么设计,也必须能承担最终责任。AI 写出来的内容,如果人自己都没有真正理解,就绝不能轻易上生产。

归根到底,AI 最适合做的是加速器,而不是方向盘。它可以帮助我们更快写代码、更快补测试、更快搭原型,但它不能替代架构治理,不能替代安全边界,不能替代责任承担。尤其对企业、政府、国央企本身或者其项目来说,面对国外大模型,更要保持基本的安全敬畏。你送出去的看似是一些上下文,真正送出去的,可能是多年沉淀下来的核心算法、业务规则、工程方法和组织知识。

所以,真正清醒地使用 AI,不是把判断权交给 AI,而是把 AI 纳入人的判断体系;不是让 AI 决定工程,而是让工程决定 AI 如何被使用。小项目、低敏项目、单人维护项目,AI 完全可以大胆用;但一旦进入多人协作、长期演进、涉及核心资产和生产责任的场景,就必须先有边界、再有规范、再有审计、再谈效率。否则,今天它帮你提速,明天它就可能把整个系统拖进不可控的泥潭。

未来真正有竞争力的团队,不是“最会让 AI 写代码”的团队,而是“最会给 AI 设边界、定规则、做治理”的团队。谁能做到这一点,谁才能真正享受到 AI 的红利,而不是被 AI 反过来绑架。

Read more

WebMCP 深度解析:开启 AI Agent 的“浏览器原生”交互时代

WebMCP 深度解析:开启 AI Agent 的“浏览器原生”交互时代

在 AI 智能体(Agent)高速发展的今天,让 Agent “理解并操作网页”一直是技术难点。过去,我们依赖于脆弱的 DOM 抓取(Scraping) 或昂贵的 视觉模型(Vision Models)。 现在,由 Google 和 Microsoft 联合推动的 WebMCP 协议正式浮出水面,它旨在彻底改变这一切,将每一个网页变成 Agent 可直接调用的“结构化工具箱”。 一、 什么是 WebMCP? WebMCP (Web Model Context Protocol) 是一项正在 W3C 孵化的浏览器 API 标准。 核心理念: 不要让 AI 像盲人摸象一样去解析复杂的 HTML,而是让网站主动通过浏览器

【AI赋能】MCP+Skill能力下的前端JS逆向自动化落地(附工具)

【AI赋能】MCP+Skill能力下的前端JS逆向自动化落地(附工具)

项目地址 https://github.com/Fausto-404/js-reverse-automation--skill js-reverse-automation--skill 结合chrome-devtools-mcp的能力并加上Skill的规范,实现JSRPC+Flask+autoDecoder方案的前端JS逆向自动化分析,提升JS逆向的效率 适用场景 * 需要快速落地前端签名/加密参数逆向 * 需要将js逆向逻辑封装为可复用的代码 * 需要与 Burp 配合进行抓包、改包 流程设计思路 针对js逆向中常用的远程调用法进行js逆向(如JSRPC+Mitmproxy、JSRPC+Flask等)中,初始配置阶段中面对的定位加密函数、编写注册代码、编写python代码等繁琐操作,通过引入AI的MCP和Skill技术进行赋能,让AI自动完成函数发现与注册代码生成,最终实现从“半自动”到“高自动”的跨越,人员全程只需下方指令,并最终配置一下burp即可完成JS逆向的全流程。 核心能力 * 基于 MCP 连接真实浏览器,触发并跟踪js加密/签名链路

WebSite-Downloader 终极使用指南:轻松实现网站整站下载

想要快速备份整个网站、离线浏览网页内容或迁移网站资源吗?WebSite-Downloader 正是你需要的强大工具!这款基于 Python 开发的网站整站下载器,通过智能多线程技术,能够高效地递归抓取网站的所有页面和资源文件,为你构建完整的本地网站镜像。无论你是开发者、内容创作者还是普通用户,都能轻松掌握这个实用工具。 【免费下载链接】WebSite-Downloader 项目地址: https://gitcode.com/gh_mirrors/web/WebSite-Downloader 🎯 项目核心优势 多线程下载引擎 - 默认配置 8 个工作线程同时执行下载任务,大幅提升下载效率。采用生产者-消费者模型,主线程负责链接队列管理,子线程专注具体下载,实现资源的最优分配。 智能链接解析 - 内置正则表达式引擎自动识别 HTML、CSS 中的各类资源链接,支持相对路径转换和跨域链接过滤,确保下载范围精准可控。 完整资源支持 - 不仅下载网页文件(HTML、CSS、JavaScript),还支持各类媒体资源(图片、

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

玩转ClaudeCode:使用Figma-MCP编写前端代码1:1还原UI设计图

目录 本轮目标 具体实践 一、开启 Figma 的 MCP 服务器 二、Claude Code 连接 Figma MCP 三、Claude Code 代码实现 Figma 设计稿 本轮目标 本轮目标是制作数字化大屏的一个前端组件,要求和UI设计图还原度达到1:1。 本轮目标需要我们提前准备好figma客户端,且登录帐号具有开发模式的权限(没有可以去某夕)。Claude Code 就不必多说,没有安装的同学参考我的上一篇文章《玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)》完成安装,通过专属链接注册,可以额外领取100美金的免费使用额度。 安装教程参考:玩转ClaudeCode:ClaudeCode安装教程(Windows+Linux+MacOS)_claude code安装-ZEEKLOG博客文章浏览阅读2.5w次,点赞67次,