猛裁1.6万人后,网站再崩6小时、一周4次重大事故!官方“紧急复盘”:跟裁员无关,也不是AI写代码的锅

猛裁1.6万人后,网站再崩6小时、一周4次重大事故!官方“紧急复盘”:跟裁员无关,也不是AI写代码的锅

整理 | 郑丽媛

出品 | ZEEKLOG(ID:ZEEKLOGnews)

过去几年里,科技公司几乎都在同一件事上加速:让 AI 参与写代码。

从自动补全、自动生成函数,到直接修改系统配置,生成式 AI 已经逐渐走进真实生产环境。但最近发生在亚马逊的一连串事故,却给整个行业泼了一盆冷水——当 AI 开始真正参与生产环境开发时,事情可能远比想象复杂。

最近,多家媒体披露,本周二亚马逊内部紧急召开了一场工程“深度复盘(deep dive)”会议,专门讨论最近频繁出现的系统故障——其中,一个被反复提及的关键词是:AI 辅助代码。

一周 4 次严重事故,亚马逊内部紧急复盘

事情的起点,是最近一段时间亚马逊系统稳定性明显下降。

负责亚马逊网站技术架构的高级副总裁 Dave Treadwell 在一封内部邮件中坦言:“各位,正如大家可能已经知道的,最近网站及相关基础设施的可用性确实不太理想。”

为此,公司决定把原本每周例行举行的技术会议 “This Week in Stores Tech”(简称 TWiST) 临时改成一次“深度复盘会议”。通常来说,TWiST 会议对员工是自愿参加的,但这一次,Treadwell 要求工程师尽量全部参加。

这场会议在周二中午 12:30 召开,主要目标只有一个:弄清楚最近这一连串系统故障到底是怎么发生的——Treadwell 在内部邮件中透露,仅仅在一周时间内,公司就发生了 4 起 Sev1 级别事故。

这里解释一下:在亚马逊的事故分级体系中,Sev1 即最高级别事故,通常意味着核心系统宕机或关键功能严重受影响。

也就是说,这已经不是普通的小 Bug,而是直接影响业务运行的大问题。

一次 6 小时宕机,让购物功能几乎瘫痪

其中,最明显的一次事故就发生在上周。

当天,亚马逊网站和购物 App 突然出现大规模故障,持续时间接近 6 小时。在这段时间里,大量用户无法完成商品结算、查看账户信息、查询商品价格……简单来说,整个电商核心流程几乎停摆。

事后,亚马逊对此给出的解释是:这次事故源于一次错误的软件代码部署。不过并没有进一步披露细节,比如是否涉及 AI 生成代码等。

不仅如此,去年 12 月亚马逊云计算部门 AWS 也曾发生一次持续 13 小时的服务中断

根据多家媒体报道,那次事故发生的原因是:工程师允许内部 AI 编程工具 Kiro 修改系统环境,而 AI 在执行任务时选择了一个极端操作——删除并重新创建了整个运行环境。

不过,亚马逊后来回应称,那次问题本质上是人为操作失误,并非 AI 本身造成的。

内部文档曾点名:GenAI 代码变更是事故因素之一

但事实上,据《金融时报》报道,在此次会议的准备材料中,亚马逊的一份内部文档曾提到:过去几个季度,公司出现了一种“事故趋势”,其中一个因素就是“GenAI 工具辅助的代码变更”。

这份文档还指出了一个关键问题:一些新的生成式 AI 使用方式,目前还没有成熟的工程规范和安全防护机制。

不过,根据 CNBC 获得的更新版本文件显示,在亚马逊内部会议开始前,涉及 GenAI 的那一条内容被删除了——知情人士表示,该调整可能与内部信息敏感性有关。

在媒体报道发布后,亚马逊发言人进一步回应称:近期的事故中只有一起与 AI 相关,没有任何事件是 AI 直接编写代码导致的。发言人还强调,这次会议本身只是“常规运营”的一部分:

“TWiST 是零售技术负责人每周举行的例会,我们会在会上评估网站和应用的运行情况,并持续改进系统可用性。”

AI 辅助开发被“加上刹车”

虽然亚马逊试图淡化 AI 的直接责任,但内部仍然决定采取新的工程措施,而最核心的一条规则就是:今后任何 AI 辅助生成的代码修改,都需要更高级别工程师审批。

换句话说:初级工程师可以用 AI 改代码,但不能直接上线,必须由资深工程师签字确认——某种意义上,这相当于给 AI 生成代码增加了一层“人工安全阀”。

但对于这项新规定,一些分析师也提出了担忧。例如,Constellation Research 首席分析师 Chirag Mehta 就表示:“如果每次 AI 改代码都需要高级工程师去逐行审核,那么企业很可能把 AI 带来的效率优势又还回去了。”

而真正的风险也并不是 AI 会犯错,毕竟人类工程师同样会犯错——真正的问题在于:AI 会把错误放大。正如 Info-Tech Research Group 的研究总监 Manish Jain 所说,AI 最大的危险是它压缩了人类干预和纠正问题的时间。

LexisNexis Risk Solutions 的 CISO Flavio Villanustre 给出了一个很形象的比喻:“AI 就像一个非常聪明但没有安全意识的孩子。”在 AI Agent 技术出现之后,软件开发速度已经大幅提升,企业的治理体系却没有同步升级,AI 策略还过于激进。

如果企业直接让这样的系统操作关键基础设施,结果就是:小 Bug 可能瞬间影响大规模系统、修复时间窗口变得更短、事故影响范围更大——因此,虽然“人类审核”会降低效率,但目前看来,这仍是必要的安全措施。

工程师猜测:故障变多可能和大裁员有关?

除了AI工具,一些亚马逊工程师还把最近频发的系统故障指向另一个原因——大裁员。

此前有多名员工表示,由于团队规模大幅缩减,工程团队每天需要处理更多“Sev2”级别事故。亚马逊内部,“Sev2”指的是:需要快速响应,否则可能导致产品服务中断的严重事件。

众所周知,亚马逊在过去几年中确实进行了多轮大规模裁员。最近一次是在今年 1 月,裁掉了约 1.6 万个岗位。不过,亚马逊官方否认裁员与其系统故障有关,并表示系统稳定性评估只是公司的“常规运营流程”。

那么,在你看来,最近亚马逊频发的系统故障是什么原因导致的呢?

参考链接:https://arstechnica.com/ai/2026/03/after-outages-amazon-to-make-senior-engineers-sign-off-on-ai-assisted-changes/

推荐阅读:

一天开13个会、一个Bug要修200天!前亚马逊L7爆料:这轮大裁员,AI只是“背锅侠”

为省5-10美元差点毁库!Claude一条指令删光200万条数据、网站停摆24小时,创始人坦言:全是我的错

全球26w+用户在线「养虾」:OpenClaw这一波泼天流量,到底让谁接住了?

未来没有前后端,只有 AI Agent 工程师。

这场十倍速的变革已至,你的下一步在哪?

4 月 17-18 日,由 ZEEKLOG 与奇点智能研究院联合主办「2026 奇点智能技术大会」将在上海隆重召开,大会聚焦 Agent 系统、世界模型、AI 原生研发等 12 大前沿专题,为你绘制通往未来的认知地图。

成为时代的见证者,更要成为时代的先行者。

奇点智能技术大会上海站,我们不见不散!

Read more

【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

AI革命先锋:DeepSeek与蓝耘通义万相2.1的无缝融合引领行业智能化变革

云边有个稻草人-ZEEKLOG博客 目录 引言 一、什么是DeepSeek? 1.1 DeepSeek平台概述 1.2 DeepSeek的核心功能与技术 二、蓝耘通义万相2.1概述 2.1 蓝耘科技简介 2.2 蓝耘通义万相2.1的功能与优势 1. 全链条智能化解决方案 2. 强大的数据处理能力 3. 高效的模型训练与优化 4. 自动化推理与部署 5. 行业专用解决方案 三、蓝耘通义万相2.1与DeepSeek的对比分析 3.1 核心区别 3.2 结合使用的优势 四、蓝耘注册流程 五、DeepSeek与蓝耘通义万相2.1的集成应用 5.1 集成应用场景 1. 智能医疗诊断

By Ne0inhk
基于腾讯云HAI + DeepSeek快速设计自己的个人网页

基于腾讯云HAI + DeepSeek快速设计自己的个人网页

前言:通过结合腾讯云HAI 强大的云端运算能力与DeepSeek先进的 AI技术,本文介绍高效、便捷且低成本的设计一个自己的个人网页。你将了解到如何轻松绕过常见的技术阻碍,在腾讯云HAI平台上快速部署DeepSeek模型,仅需简单几步,就能获取一个包含个人简介、技能特长、项目经历及联系方式等核心板块的响应式网页。 目录 一、DeepSeek模型部署在腾讯云HAI 二、设计个人网页 一、DeepSeek模型部署在腾讯云HAI 把 DeepSeek 模型部署于腾讯云 HAI,用户便能避开官网访问限制,直接依托腾讯云 HAI 的超强算力运行 DeepSeek-R1 等模型。这一举措不仅降低了技术门槛,还缩短了部署时间,削减了成本。尤为关键的是,凭借 HAI 平台灵活且可扩展的特性,用户能够依据自身特定需求定制专属解决方案,进而更出色地适配特定业务场景,满足各类技术要求 。 点击访问腾讯云HAI控制台地址: 算力管理 - 高性能应用服务 - 控制台 腾讯云高性能应用服务HAI已支持DeepSeek-R1模型预装环境和CPU算力,只需简单的几步就能调用DeepSeek - R1

By Ne0inhk