黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

黄仁勋公开发文:传统软件开发模式终结,参与AI不必非得拥有计算机博士学位

AI 究竟是什么?在 NVIDIA CEO 黄仁勋看来,它早已不只是聊天机器人或某个大模型,而是一种正在迅速成形的“新型基础设施”。

近日,黄仁勋在英伟达官网发布了一篇长文,提出一个颇具形象的比喻——AI 就像一块“五层蛋糕”。从最底层的能源,到芯片、基础设施、模型,再到最上层的应用,人工智能正在形成一整套完整的产业技术栈,并像电力和互联网一样,逐渐成为现代社会的底层能力。

这也是黄仁勋自 2016 年以来公开发表的第七篇长文。在这篇文章中,他从计算机发展史与第一性原理出发,试图解释 AI 技术栈为何会演化成如今的形态,以及为什么全球正在掀起一场规模空前的 AI 基础设施建设。

在他看来,过去几十年的软件大多是预先编写好的程序:人类设计好算法,计算机按指令执行,数据被结构化存储在数据库中,通过精确查询调用。而 AI 的出现打破了这一模式——计算机开始能够理解图像、文本和声音,并根据上下文实时生成答案、推理结果甚至新的内容。

正因为智能不再是预先写好的代码,而是实时生成的能力,支撑它运行的整个计算体系也必须被重新设计。从能源供应、芯片架构到数据中心建设,AI 正在推动一轮规模空前的基础设施建设。

不过,黄仁勋也提醒,这场变革仍处于早期阶段:大量基础设施尚未建成,大量人才尚未完成培训,大量机会也尚未被真正释放。

来源:https://blogs.nvidia.cn/blog/ai-5-layer-cake/

编译 | 苏宓

出品 | ZEEKLOG(ID:ZEEKLOGnews)

以下为黄仁勋分享全文:

AI 是当今塑造世界最强大的力量之一。它并非仅仅是一款巧妙的应用程序,也不是某个单一的模型,而是一种就像电力和互联网一样的基础设施。

AI 依赖真实的硬件、真实的能源以及真实的经济体系运行。它可以把原材料大规模地转化为智能。未来,每家公司都会使用 AI,每个国家/地区都会建设 AI。

要理解 AI 为什么会以这样的方式发展,最好的方法是从第一性原理出发,看看计算领域究竟发生了哪些根本性的变化。

从预先编写的软件,到实时生成的智能

在计算机发展的绝大多数历史中,软件都是预先写好的。人类先描述算法,然后由计算机执行。数据必须被精心组织与设计,存储在表格中,再通过精确的查询进行检索。

因此,SQL 成为不可或缺的工具,因为它让这种计算模式变得可行。

而 AI 打破了这一模式。

我们首次拥有了一台能够理解非结构化信息的计算机。它可以识别图像、阅读文本、理解声音,并理解其中的含义。它能够根据上下文和意图进行推理。更重要的是,它能够实时生成智能。

每一次回答都是全新的。每一次回应都取决于你提供的上下文。这不再是软件从数据库中取出预先存储的指令。而是软件在实时推理,并按需生成智能。

正因为智能是实时产生的,支撑它的整个计算技术栈也必须被重新设计。

AI 即基础设施

如果从工业视角看 AI,它可以被拆分为一个五层技术栈。

第一层:能源

最底层是能源。实时生成智能需要实时提供电力。每一个生成的 token,本质上都是电子在流动、热量被管理、能源被转化为计算能力的结果。

在这一层之下,没有任何抽象。能源是 AI 基础设施的第一性原理,也是决定系统能产生多少智能的硬性约束。

第二层:芯片

能源之上是芯片。芯片是专门设计的处理器,用于高效地把能源转化为计算能力,并且能够在极大规模下运行。AI 工作负载需要极高的并行度、高带宽内存以及高速互联。芯片层的进步,决定了 AI 扩展的速度,也决定了智能的成本能降低到什么程度。

第三层:基础设施

芯片之上是基础设施。这一层包括土地、电力输送、散热系统、建筑、网络,以及能够把数万颗处理器组织成一台机器的系统。这些系统本质上是AI 工厂。

它们的设计目标不是存储信息,而是制造智能。

第四层:模型

基础设施之上是模型。

AI 模型能够理解多种类型的信息:语言、生物、化学、物理、金融、医学,以及现实世界本身。语言模型只是其中的一类。目前最具变革性的进展,很多发生在以下领域,包括蛋白质 AI、化学 AI、物理仿真、机器人、自动驾驶系统。

第五层:应用

最顶层是应用,也是创造经济价值的地方。例如:药物研发平台、工业机器人、法律助手、自动驾驶汽车。一辆自动驾驶汽车,本质上是嵌入在机器中的 AI 应用。一台人形机器人,则是嵌入在身体中的 AI 应用。底层技术栈相同,但最终形态不同。

这就是 AI 的五层蛋糕结构:能源 → 芯片 → 基础设施 → 模型 → 应用。

每一个成功的应用,都会拉动下方的每一层需求,一直延伸到为整个系统提供电力的发电厂。

AI 的建设才刚刚开始。目前的投入规模只有几千亿美元,而未来仍需要建设数万亿美元的基础设施。

在全球范围内,我们正在看到,芯片工厂、计算机组装工厂和 AI 工厂以前所未有的规模建设。这正在成为人类历史上最大的基础设施建设之一。

支撑这场建设所需要的劳动力规模非常庞大。AI 工厂需要电工、管道工、管线安装工、钢结构工人、网络技术人员、安装人员和运维人员等。

这些都是技能型、高收入的工作岗位,而且目前供不应求。参与这场变革,并不需要计算机科学博士学位。

与此同时,AI 也在推动知识经济的生产力提升。以放射学为例。AI 现在已经可以帮助医生读取医学影像,但放射科医生的需求仍在持续增长。这并非矛盾现象。

放射科医生的使命是照顾患者,而解读扫描影像只是其中的一项任务。

当 AI 承担更多重复性工作时,医生可以把时间用于判断、沟通和患者护理。医院的效率因此提升,能够服务更多患者,也需要雇佣更多人员。

生产力提升会带来更多能力,而能力会带来增长。

过去一年发生了什么变化

在过去一年里,AI 跨越了一个重要门槛——模型性能显著提升,可以在大规模场景中真正发挥作用。推理能力提高了,幻觉显著减少,落地应用能力大幅提升。基于 AI 构建的应用首次开始创造真实的经济价值。

药物研发、物流、客户服务、软件开发和制造业领域的应用已经展现出强大的产品市场契合度。这些应用正在强烈拉动底层技术栈的需求。

开源模型在这一过程中发挥着关键作用。全球绝大多数模型都是免费开放的。研究人员、初创公司、企业,甚至整个国家,都依赖开源模型参与先进 AI 的发展。

当开源模型达到前沿水平时,它们带来的变化不仅发生在软件领域,还会激活整个技术栈的需求。

DeepSeek-R1 就是一个很好例子。当一个强大的推理模型被广泛开放时,它会加速应用层的采用,并带动了底层对训练、基础设施、芯片和能源的需求增长。

这意味着什么

如果把 AI 看作一种基础设施,其影响就会变得非常清晰。

AI 始于 Transformer 架构的 LLM,但其意义远不止于此。这是一场工业级的变革,正在重塑能源生产与消费方式、工厂的建造模式、工作的组织形式以及经济的增长路径。

如今,AI 工厂正在兴建,是因为智能现在是实时生成的。芯片之所以被重新设计,是因为效率决定了智能扩展的速度。能源变得至关重要,因为它决定了智能产出的上限。而应用层正在加速发展,是因为底层模型已经跨越了真正可用的门槛。

每一层都会强化其他层的发展。

这就是为什么 AI 基础设施的建设规模如此庞大,这也是为什么它会同时影响如此多的行业。AI 不会局限于某个国家或某个行业。每家公司都会使用 AI。每个国家都会建设 AI。

我们仍然处于早期阶段。大量基础设施尚未建设、大量人才尚未培训、大量机会尚未被实现。

但方向已经非常清晰。

人工智能正在成为现代世界的基础性基础设施。而我们现在做出的选择、构建速度、参与广度以及如何负责任地部署 AI,都将决定这个时代最终会变成什么样子。

推荐阅读:

一天开13个会、一个Bug要修200天!前亚马逊L7爆料:这轮大裁员,AI只是“背锅侠”

为省5-10美元差点毁库!Claude一条指令删光200万条数据、网站停摆24小时,创始人坦言:全是我的错

全球26w+用户在线「养虾」:OpenClaw这一波泼天流量,到底让谁接住了?

未来没有前后端,只有 AI Agent 工程师。

这场十倍速的变革已至,你的下一步在哪?

4 月 17-18 日,由 ZEEKLOG 与奇点智能研究院联合主办「2026 奇点智能技术大会」将在上海隆重召开,大会聚焦 Agent 系统、世界模型、AI 原生研发等 12 大前沿专题,为你绘制通往未来的认知地图。

成为时代的见证者,更要成为时代的先行者。

奇点智能技术大会上海站,我们不见不散!

Read more

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

本系列主要通过调用天气的mcp server查询天气这个例子来学习什么是mcp,以及怎么设计mcp。话不多说,我们开始吧。主要参考的是B站的老哥做的一个教程,我把链接放到这里,大家如果有什么不懂的也可以去看一下。 https://www.bilibili.com/video/BV1NLXCYTEbj?spm_id_from=333.788.videopod.episodes&vd_source=32148098d54c83926572ec0bab6a3b1d https://blog.ZEEKLOG.net/fufan_LLM/article/details/146377471 最终的效果:让deepseek-v3使用天气查询的工具来查询指定地方的天气情况 技术介绍 MCP,即Model Context Protocol(模型上下文协议),是由Claude的母公司Anthropic在2024年底推出的一项创新技术协议。在它刚问世时,并未引起太多关注,反响较为平淡。然而,随着今年智能体Agent领域的迅猛发展,MCP逐渐进入大众视野并受到广泛关注。今年2月,

By Ne0inhk
可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk