斯坦福HAI官网完整版《2025 AI Index Report》全面解读

斯坦福HAI官网完整版《2025 AI Index Report》全面解读
在这里插入图片描述

一、这份报告真正想说什么

如果把整份《2025 AI Index Report》压缩成一句话,我会这样概括:AI 已经从“技术突破期”进入“系统扩散期”。它一边继续提升性能,一边迅速降本、普及、商业化、制度化;与此同时,风险事件、治理压力、数据约束、社会信任问题也同步上升。换句话说,2025年的AI不是“更神奇了”这么简单,而是开始变成一种会重塑产业结构、教育体系、监管逻辑和公众心理预期的基础能力。这个判断基本贯穿斯坦福官网总览页的 12 条结论与各章节摘要。(斯坦福人工智能研究所)

斯坦福自己对AI Index的定位也很明确:它不是某家公司的宣传册,也不是对未来的主观想象,而是一个收集、整理、浓缩并可视化 AI 数据趋势的观测框架,目的是为政策制定者、研究者、企业与公众提供更全面、客观的判断基础。也正因为如此,这份报告最重要的价值,不是告诉你“哪个模型最强”,而是告诉你:AI 这场浪潮在技术、资本、产业、社会、教育和国家治理层面,到底推进到了什么阶段。 (斯坦福人工智能研究所)

二、为什么 2025 年版比以往更值得重视

过去几年的 AI 叙事,往往围绕“模型越来越强”。但 2025 年版最显著的变化,是它不再只强调能力跃升,而是在更大程度上强调扩散与结构变化。比如,报告一方面指出MMMU、GPQA、SWE-bench等高难基准在 2024 年内出现了大幅跃升;另一方面又强调GPT-3.5级别能力的调用成本在约 18 个月内下降了 280 多倍、企业使用率从 55% 升到 78%、FDA 批准的 AI 医疗设备数量大增、联邦和地方层面的 AI 监管迅速增多。技术、经济、社会、治理几条线第一次被压在同一个分析框架下,这使它更像一份“AI 进入成熟扩散阶段”的全景体检报告。(斯坦福人工智能研究所)

从这个意义上说,2025 AI Index的关键词不是单纯的“更强”,而是:更强、更便宜、更普及、更拥挤、更有争议、也更难治理。 这六个词几乎可以概括整份报告的底色。(斯坦福人工智能研究所)

三、第一章:研发格局已经全面“产业化”,但学术仍保留话语权

研发章节最值得注意的,不是“谁又发了一个大模型”,而是AI 创新的组织结构已经发生了根本性倾斜。斯坦福指出,2024 年近 90% 的 notable AI models 来自产业界,而 2023 年这一比例还是 60%。这说明前沿模型开发越来越依赖巨额算力、数据与工程基础设施,而这些资源最集中地掌握在头部科技公司手里。与之对应,学术界虽然在“做最大模型”这件事上越来越吃力,但仍然是过去三年里高被引论文最重要的机构来源。也就是说,前沿模型生产权正在向产业集中,但基础研究与学术影响力并未消失,它只是从“做出最大的模型”转向“定义重要问题、方法和评估框架”。(斯坦福人工智能研究所)

这一变化背后,是 AI 研发模式从“研究主导”向“资本-算力-工程主导”迁移。政策亮点 PDF 进一步给出一个很醒目的对照:尽管各国也在增加公共 AI 支出,美国 2023 年公共 AI 相关合同支出为 8.31 亿美元,但产业界依旧凭借更大的持续投入主导了前沿模型开发;同时,显著模型训练算力大约每 5 个月翻一倍,训练数据规模每 8 个月翻一倍,训练所需功率按年增长。换句话说,AI 前沿不是没有公共部门参与,而是公共投入很难追上产业界在前沿竞赛中的速度和规模

研发章节的第二个重要结论,是全球 AI 生产力版图正在分层。斯坦福写得很清楚:中国在 AI 论文总量和专利数量上继续领先,美国则在更具影响力的研究与 notable models 数量上保持优势。到 2024 年,美国机构产出了 40 个 notable AI models,中国是 15 个,欧洲合计是 3 个;而中国在 AI 专利授权中占比高达 69.7%。这意味着中美并不是简单的“谁全面领先谁”的单线叙事,而是形成了一种更复杂的结构:美国强在前沿模型与高影响创新,中国强在规模化研究产出、专利与产业追赶能力。 (斯坦福人工智能研究所)

这部分特别值得深想。因为很多人会把“论文多”和“模型强”混为一谈,但斯坦福的数据恰恰提醒我们:AI 竞争至少有三层。第一层是科研产出层,比论文、专利和人才;第二层是前沿模型层,比算力、工程和商业化能力;第三层是扩散应用层,比谁能把 AI 真正部署到产业与社会。中国在第一层和第三层越来越强,美国在第二层优势仍最明显。报告的真正含义不是宣布“赢家已定”,而是说明未来竞争会是多维度、长期化、体系化的。(斯坦福人工智能研究所)

研发章节还有一个很重要但常被忽略的信息:AI 正在“吞掉”计算机科学。 2013 到 2023 年,AI 相关论文从约 10.2 万增长到超过 24.2 万,而 AI 在计算机科学论文中的占比从 21.6% 升到 41.8%。这不是一个简单的数量增长问题,而是意味着 AI 已不再是 CS 里的一个分支热点,而逐渐成为计算机科学的中心主题之一。很多学科正在被 AI 化,很多工程能力也正在被重新定义成“与 AI 协同的工程能力”。(斯坦福人工智能研究所)

更强烈的信号来自模型规模与成本两端的“剪刀差”。一边,训练成本、训练算力需求、能耗和碳排仍在快速上升。斯坦福举例说,AlexNet训练碳排大约 0.01 吨,GPT-3为 588 吨,GPT-4 为 5184 吨,Llama 3.1 405B 则达到8930 吨。另一边,调用成本却在急剧下降:达到 GPT-3.5 水平的模型,价格从2022年11月的每百万token 20美元跌到 2024 年10月的 0.07 美元。这构成了2025年AI产业最关键的结构性事实:训练越来越贵,使用越来越便宜。 (斯坦福人工智能研究所)

这意味着什么?意味着 AI 会越来越像云计算基础设施:最上游是少数巨头烧钱建造能力,最下游则是海量企业和开发者低成本消费能力。前沿能力的生产会更集中,但应用创新会更分散。也就是说,“做模型”的门槛在升高,“用模型”的门槛在降低。 这正是 AI 从科研竞赛走向产业普及的关键拐点。(斯坦福人工智能研究所)

四、第二章:技术表现仍在猛冲,但“谁最强”这件事正在变得没那么重要

技术表现章节给出的第一印象非常震撼。2023 年才推出的一批高难评测,如 MMMU、GPQA、SWE-bench,到 2024 年就已经出现大幅跃升:MMMU提升 18.8 个百分点,GPQA 提升 48.9 个百分点,SWE-bench 则从4.4% 飙升到71.7%。这说明一个事实:AI 不仅在变强,而且在“更快地变强”。 新基准刚提出不久,就会被迅速攻克。(斯坦福人工智能研究所)

但斯坦福并没有因为这些成绩而变得盲目乐观。它同时强调,很多基准的构造质量并不理想,标准化评估体系依然缺乏,尤其在真实性、事实性和负责任 AI 方面,成熟、统一且广泛采用的评价机制依然不足。也就是说,AI 变强是真实的,但“我们到底在用什么尺子衡量它变强”这件事仍然不够稳定。能力进步很快,测量体系却还不够成熟。 这是 2025 年前沿 AI 一个非常核心的矛盾。(斯坦福人工智能研究所)

这一章最颠覆认知的地方之一,是开源/开放权重模型和闭源模型的差距几乎被追平。斯坦福指出,2024 年初,Chatbot Arena 上最强闭源模型比最强开放权重模型高 8.04%;到 2025 年 2 月,这个差距缩小到 1.70%。这意味着过去那种“最强能力一定属于闭源巨头”的图景正在松动。(斯坦福人工智能研究所)

这件事的意义非常大。因为它会重塑整个 AI 生态的竞争逻辑。闭源模型仍然可能在综合稳定性、商业支持和安全防护上占优,但开放权重模型一旦在性能上接近,企业和开发者就会更积极地考虑可控性、部署成本、数据主权和定制能力。对很多国家、企业和垂直行业来说,未来真正有吸引力的未必是“最强模型”,而是够强、可控、便宜、可私有化部署的模型。从这个角度看,斯坦福不是在说闭源不重要,而是在说:AI 能力正在从稀缺奢侈品变成可选择的基础品。 (斯坦福人工智能研究所)

中美模型差距收窄,则是技术表现章节里另一个重量级信号。斯坦福给出了一组非常直接的数据:到 2023 年底,美国领先模型在MMLU、MMMU、MATH、HumanEval 上分别领先中国模型 17.5、13.5、24.3、31.6 个百分点;到 2024 年底,这些差距缩小到 0.3、8.1、1.6、3.7。这说明中国模型不是象征性地“追近了一点”,而是在多个核心基准上发生了大幅度追赶。(斯坦福人工智能研究所)

不过,斯坦福真正想表达的并不只是“差距缩小”,而是前沿正在变得拥挤。Chatbot Arena 上,榜首与第十名的Elo 差距从 11.9% 缩小到 5.4%,前两名之间的差距也从 4.9% 降到 0.7%。这意味着,AI 前沿竞争的结构从“少数几家遥遥领先”逐渐变成“多家高水平选手短兵相接”。(斯坦福人工智能研究所)

这会带来两个后果。第一,单纯靠“我们是最强模型”建立壁垒会越来越难,因为差距没有以前那么大。第二,未来竞争重点会从榜单名次转向真实使用体验、生态整合、成本、延迟、工具链和行业适配。也就是说,模型的“技术边界”还在推进,但“商业边界”已经开始由综合系统能力决定。(斯坦福人工智能研究所)

技术章节还有一个很值得玩味的结论:推理型范式确实有效,但代价巨大。 斯坦福指出,OpenAI的o1 这类 test-time compute 模型,在 IMO qualifying exam 上达到 74.4%,远高于 GPT-4o 的 9.3%;但 o1 也几乎贵 6 倍、慢 30 倍。这说明“更会想”的模型并不是免费的午餐。它能提高某些复杂任务表现,但会以成本和时延为代价。(斯坦福人工智能研究所)

因此,2025 AI Index 在技术层面传达出的最成熟判断其实是:AI 变强了,但并没有脱离经济学。 每一次能力跃升,都要问两个问题:值不值得,以及谁来为它买单。这也是为什么斯坦福在总览页同时提醒:AI 虽然在数学竞赛类题目上表现越来越亮眼,但在PlanBench 等复杂推理任务上仍存在明显短板。也就是说,“会做难题”不等于“具备稳定的复杂推理能力”。(斯坦福人工智能研究所)

五、第三章:负责任 AI 仍然是最明显的短板之一

在负责任 AI 章节,斯坦福的态度比很多市场宣传要冷静得多。它没有说“安全问题很快就会解决”,而是明确指出:用负责任 AI 标准去系统评估模型,仍然不常见。 虽然 HELM Safety、AIR-Bench 等新基准开始出现,但行业整体还远谈不上形成像MMLU、HumanEval 那样广泛共识和常态使用的 RAI 评测体系。(斯坦福人工智能研究所)

这个结论很关键。因为今天很多 AI 系统看起来已经能写、能算、能编程、能多模态,但真正落到金融、医疗、政务、教育这些高风险场景时,决定它能不能规模化部署的,往往不是“平均能力有多强”,而是极端情况下是否可靠、是否可解释、是否合规、是否可审计。而这恰恰是斯坦福认为当前最不成熟的环节之一。(斯坦福人工智能研究所)

风险事件数量的上升进一步证明了这一点。根据AI Incidents Database,2024 年 AI 相关事件达到 233 起,同比增长 56.4%,创历史新高。这里面最值得重视的并不是数字本身,而是其含义:AI 已经足够普及,足以频繁进入现实社会冲突。它不再只是实验室系统,也不只是聊天玩具,而是在现实世界里开始影响名誉、隐私、未成年人保护、信息安全、歧视、公平性与社会信任。(斯坦福人工智能研究所)

斯坦福还指出,企业管理层虽然意识到了 RAI风险,但实际行动明显落后。麦肯锡调查显示,不准确性、合规和网络安全是最受关注的风险类型,但能把这些担忧转化为完备治理措施的组织并不多。这种“认知先行、治理滞后”的情况,几乎可以说是当下企业 AI 采用最真实的状态写照:大家知道有风险,但多数还没真正把风险治理流程内化为组织能力。 (斯坦福人工智能研究所)

这一章里我认为最有洞察力的点,是斯坦福谈到数据公共领域正在缩小。报告引用研究称,从 2023 到 2024 年,越来越多网站开始通过新协议限制 AI 抓取;在C4 common crawl 数据集中,活跃维护站点中受限制 token 的占比从 5%-7% 上升到 20%-33%。这不是技术层面的小修小补,而是 AI 发展模式可能面临的根本变化:过去那种“互联网上公开文本几乎可以无限吸收”的时代,正在结束。(斯坦福人工智能研究所)

这会带来深远影响。首先,训练数据变得更稀缺、更贵,模型公司的数据获取与授权成本会上升。其次,数据多样性可能下降,模型对小众语言、长尾知识和非主流语境的覆盖会受到影响。再次,数据受限会倒逼新路线,比如更高质量合成数据、合成后验证、数据授权市场、领域特定数据联盟,以及更依赖推理、检索和小样本学习的训练范式。换句话说,未来 AI 的瓶颈未必只是算力,也可能是高质量、可合法使用的数据供给。(斯坦福人工智能研究所)

所以,负责任 AI 章节的真正主题不是“道德说教”,而是一个很硬的现实:AI 若想从试点走向制度化部署,治理能力将和模型能力同样重要。 这一点在 2025 年已经不是价值宣言,而是商业与政策上的硬约束。(斯坦福人工智能研究所)

六、第四章:经济章节说明,AI 已经从资本故事进入经营故事

经济章节给出的最强信号,是AI 投资热潮并没有结束,反而在继续加速。2024 年,全球企业 AI 投资达到 2523 亿美元,同比增长 26%;其中私人投资增长 44.5%,并购增长 12.1%。生成式 AI 私人投资达到 339 亿美元,比 2023 年增长 18.7%,已经超过 2022 年的 8.5 倍。(斯坦福人工智能研究所)

这说明资本市场对 AI 的判断已经从“好奇”变成“下注”。但比投资额更重要的是,AI 使用率也在同步飙升。2024 年,组织层面的 AI 使用率从 55% 跳到 78%;至少一个业务职能使用生成式 AI 的比例从 33% 翻到 71%。这意味着企业不是停留在“研究一下 AI 是否有用”,而是已经进入“把 AI 接进业务流程”的阶段。(斯坦福人工智能研究所)

不过,斯坦福在这里也非常克制。它没有说 AI 已经全面兑现巨大财务回报,而是指出:财务影响开始出现,但多数企业仍在早期。 例如,使用 AI 的服务运营部门中,49% 报告了成本节约;供应链为 43%,软件工程为 41%。但最常见的节约水平仍低于 10%。收入端也是如此:营销销售中 71% 的组织报告了收入增长,但最常见的增幅也低于 5%。(斯坦福人工智能研究所)

这组数据极有价值,因为它打破了两种极端神话。第一种神话是“AI 还没创造价值”;第二种神话是“AI 已经带来革命性财务回报”。斯坦福告诉我们的更接近中间现实:AI 已经开始在许多业务功能里产生可测量收益,但收益通常还是渐进式、结构性、流程型的,而不是立刻爆发式地改变财报。 (斯坦福人工智能研究所)

这也解释了为什么企业会继续加码。不是因为 AI 已经替代了大批岗位、立刻带来几十个百分点利润率,而是因为它开始显示出一种很像“通用效率层”的特征:客服、营销、供应链、工程、知识管理、内部搜索、内容生产等环节都能一点点变快、变便宜、变标准化。单点收益未必夸张,但可复制性非常强。一旦嵌进工作流,长期累积效应会很大。(斯坦福人工智能研究所)

美国在资本层面的领先也被进一步拉大。2024 年,美国私人 AI 投资 1091 亿美元,接近中国 93 亿美元的 12 倍、英国 45 亿美元的 24 倍;在生成式 AI 方面,美国相较中国与欧盟加英国的合计领先差距也在扩大。这个结论和研发章节形成闭环:前沿模型优势不是凭空产生的,而是由资本深度、云基础设施、算力能力和企业采购能力共同支撑的。 (斯坦福人工智能研究所)

但经济章节并没有把故事讲成“美国赢者通吃”。它同样提到,大中华区组织 AI 使用率的同比增幅高达 27 个百分点,欧洲也增加了 23 个百分点。这说明在应用层,世界并没有停下来等美国,反而是在快速形成多区域扩散。技术前沿的生产更集中,应用扩散却在全球加速。(斯坦福人工智能研究所)

再加上中国在工业机器人安装上的长期强势——2023 年中国安装 27.63 万台工业机器人,占全球 51.1%——就可以看出斯坦福的隐含判断:未来 AI 竞争不只发生在云端大模型,也发生在制造、机器人、产业自动化与物理世界部署。谁能把算法变成真实生产力,谁就更可能在下一阶段占优。(斯坦福人工智能研究所)

七、第五章:科学与医疗可能是 AI 最快形成“硬价值”的方向

科学与医疗章节其实非常像一张未来产业地图。首先,斯坦福指出,2024 年出现了更大、更强的蛋白质模型,如ESM3AlphaFold 3;同时,AI 在科学发现中的角色继续扩大,新的系统被用于生物任务训练和野火预测等方向。再加上总览页提到 AI 对科学的贡献已经获得诺奖与图灵奖级别认可,这说明 AI 在科学领域早已不是“辅助工具”那么简单,而是在成为新型知识生产基础设施。(斯坦福人工智能研究所)

临床知识方面,领先大模型也持续进步。斯坦福提到,OpenAI的o1在 MedQA 上达到 96.0%,比 2023 年最佳成绩高 5.8 个百分点,自 2022 年末以来累计提升 28.4 个百分点。报告甚至提醒,MedQA 这种基准可能已经接近饱和,未来需要更难的评测。换句话说,在“考试型医学知识”上,顶尖大模型已经逼近天花板。(斯坦福人工智能研究所)

真正更重要的是,AI 开始在某些临床任务上超过医生。斯坦福引用研究称,GPT-4 单独诊断复杂病例时,甚至超过了无 AI 和有 AI 辅助的医生;其他研究也显示,AI 在癌症检测和高死亡风险患者识别上优于医生。但报告也保留了关键判断:AI 与医生协作可能比任何一方单独工作都更有效。(斯坦福人工智能研究所)

这一点非常值得强调。它意味着医疗 AI 的主流路径,至少在中短期内,不是“替代医生”,而是“重构医生的工作方式”。医生的角色会逐步从信息检索者、常规识别者,转向最后责任人、复杂决策者、沟通解释者和伦理判断者。AI 则更像一个高覆盖率、高速度、高一致性的“前置认知层”。这比“医生会不会被替代”那类问题更接近现实。(斯坦福人工智能研究所)

FDA 批准数量的增长,也证明医疗 AI 已经越过概念验证阶段。斯坦福指出,FDA 1995 年才批准第一个 AI 医疗设备;到 2015 年累计只有 6 个,而到 2023 年已升至 223 个。这意味着医疗 AI 已经从少数试验性产品,走到真实监管框架下的大规模器械化落地。(斯坦福人工智能研究所)

此外,合成数据在医学中的潜力也被特别提到。2024 年的一些研究显示,AI 生成的合成数据有助于改善社会健康决定因素识别、提升隐私保护下的临床风险预测,并支持新药化合物发现。这说明未来医学 AI 的价值,不只在“模型会答题”,还在于它能不能帮助构造更安全、更可共享、更有效的数据环境。(斯坦福人工智能研究所)

所以,科学与医疗章节的核心信号是:AI 最有可能率先形成高壁垒、强监管、强刚需、强价值闭环的行业,不一定是内容生成,而更可能是科学与医疗。 这也是为什么斯坦福把这一章放在全报告中相当重要的位置。(斯坦福人工智能研究所)

八、第六章:政策与治理已经从“讨论 AI”升级为“围绕 AI 配置国家能力”

政策与治理章节展示的是另一条清晰主线:政府不再只是讨论 AI,而是在立法、监管、基础设施和国际协调层面实质性入场。 美国州一级立法就是典型例子。斯坦福指出,2016 年美国只有 1 部州级 AI 相关法律通过,到 2023 年增至 49 部,而 2024 年直接翻到 131 部。这说明当联邦层面推进较慢时,地方政府正在先行填补治理真空。(斯坦福人工智能研究所)

联邦层面其实也在提速。2024 年,美国联邦机构引入了 59 项 AI 相关法规,是 2023 年 25 项的两倍多;涉及机构达到 42 个,也是前一年的两倍。这意味着 AI 监管已经不是某个单一部门的事务,而是在横向扩展为多机构共同介入的问题。(斯坦福人工智能研究所)

全球层面,“AI”在立法程序中的出现频率也在持续上升。斯坦福统计,75 个主要国家在 2024 年的立法程序中对 AI 的提及达到 1889 次,比 2023 年的 1557 次 增长 21.3%,比 2016 年增加九倍以上。立法层面的高频出现,意味着 AI 已经从“技术政策话题”升级为各国普遍需要面对的现实治理议题。(斯坦福人工智能研究所)

更重要的是,政策竞争已不只体现在“管不管”,还体现在“投不投”。斯坦福列举,加拿大宣布 24 亿美元 AI 基建方案,中国推出 475 亿美元 半导体基金,法国承诺 1170 亿美元 AI 基建,印度和沙特也分别做出大额承诺。这里最值得注意的是“基础设施”三个字。各国越来越认识到,AI 竞争不只是应用软件竞争,而是芯片、算力、数据中心、能源与人才的综合国家能力竞争。(斯坦福人工智能研究所)

AI 安全研究机构的国际协调,也代表治理开始从国内法规向跨国机制延伸。继 2023 年首届 AI Safety Summit 后,美国、英国、日本、法国、德国、意大利、新加坡、韩国、澳大利亚、加拿大和欧盟等相继推动 AI safety institute。虽然这些机构的权威性、协调机制和实际影响还有待观察,但至少说明国际社会已默认一个前提:前沿 AI 的治理无法完全在单一国家内完成。 (斯坦福人工智能研究所)

深伪监管则体现出 AI 治理越来越“从抽象到具体”。2024 年前,只有 5 个美国州对选举深伪进行规制;到 2024 年,又有 15 个州引入类似措施,总计 24 个州已经通过针对深伪的监管。这说明监管最先落地的,往往不是“通用 AI”这种抽象框架,而是那些已经能造成明显社会伤害的具体问题,如选举、未成年人、隐私和欺诈。(斯坦福人工智能研究所)

因此,这一章传达的真正信号是:AI 已经被各国视为需要同时用“规则”和“投资”来回应的系统性议题。 只监管不投资,可能失去竞争力;只投资不监管,可能放大社会风险。2025 年后,国家竞争将越来越体现为“治理能力 + 基础设施能力”的双重竞赛。(斯坦福人工智能研究所)

九、第七章:教育扩张很快,但“会不会教 AI”比“要不要教 AI”更成问题

教育章节最能反映 AI 对社会中长期结构的影响。首先,全球 三分之二的国家已经提供或计划提供 K-12 计算机科学教育,这一比例相比 2019 年翻倍,非洲和拉美进步最明显。但斯坦福同时提醒,很多非洲国家由于学校缺电,学生接触 CS 教育的机会仍显著不足。也就是说,教育供给的全球扩散是真实的,但基础设施差距依旧决定了谁能真正受益。 (斯坦福人工智能研究所)

在美国,CS 课程可及性和修读人数继续小幅提升,但学生参与仍然受到州别、种族、族裔、学校规模、地理位置、收入、性别和残障状况影响。这提醒我们,AI 教育并不只是“把课程放上去”那么简单,它还牵涉到谁能真正进入这些课程、谁能从中获得上升通道。(斯坦福人工智能研究所)

比课程供给更紧迫的问题,是教师能力。斯坦福写得很直接:81% 的美国 CS 教师认为 AI 应纳入基础计算机科学学习体验,但不到一半觉得自己有能力教 AI。 这是一组非常有杀伤力的数据。它说明关于“AI 要不要进课堂”的讨论,其实已经大致结束;真正的问题变成了:谁来教、怎么教、教什么、用什么材料教。 (斯坦福人工智能研究所)

这一点的深层含义是,AI 教育的短板不在理念,而在师资与组织准备。很多教育系统现在面对的是典型“政策愿望快于执行能力”的问题:大家意识到 AI 是基础素养的一部分,但教师培训、课程框架、评价标准、伦理边界和本地化案例都还没跟上。未来几年,真正稀缺的可能不只是 AI 工程师,而是既懂教育又懂 AI 的课程设计者与教师培训者。(斯坦福人工智能研究所)

高等教育方面,美国 AI 硕士学位获得者在 2022 到 2023 年间几乎翻倍,这可能预示本科、硕博层级后续也会跟进;官网总览页还指出,美国过去十年获得计算相关学士学位的人数增长 22%。这说明生成式 AI 的爆发,已经开始反馈到人才供给结构。(斯坦福人工智能研究所)

所以,教育章节揭示的是一个长期现实:AI 不仅会改变岗位,还会倒逼整个教育系统调整“基础素养”的定义。 今后的基础数字能力,可能不再只是会用 Office、会搜索信息,而会逐步包括提示设计、AI 协作、结果校验、数据意识、模型偏差识别与数字伦理。(斯坦福人工智能研究所)

十、第八章:公众态度在变得更乐观,但信任并没有同步恢复

公众意见章节非常有意思,因为它告诉我们:社会并不是“越来越恐惧 AI”,而是出现了一种更复杂的状态——整体乐观上升,但具体信任下降。 全球范围内,认为 AI 产品和服务利大于弊的人群,从 2022 年的 52% 升到 2024 年的 55%;26 个被持续调查的国家中,有 18 个国家这一比例上升。(斯坦福人工智能研究所)

同时,全球约 三分之二的人认为 AI 产品和服务会在未来 3 到 5 年显著影响日常生活,比 2022 年高 6 个百分点。也就是说,多数人已经不再把 AI 看作遥远技术,而是视为近在眼前的生活变量。(斯坦福人工智能研究所)

但信任层面的数字却没有同样乐观。斯坦福指出,全球范围内,相信 AI 公司会保护个人数据的比例从 2023 年的 50% 下降到 2024 年的 47%;认为 AI 不带偏见、不歧视的人也比上一年更少。公众态度因此呈现出一种典型的现代技术心理:我承认它有用,也知道它会影响我,但我并不完全信任掌控它的机构。 (斯坦福人工智能研究所)

地区差异也依旧显著。中国 83%、印尼 80%、泰国 77% 的受访者认为 AI 利大于弊,而加拿大 40%、美国 39%、荷兰 36% 明显更谨慎。与此同时,过去最怀疑的几个国家——德国、法国、加拿大、英国、美国——乐观度也都在提升。斯坦福的意思不是“全球分歧消失了”,而是:乐观在扩散,但扩散速度不均。 (斯坦福人工智能研究所)

就业认知也很值得注意。全球 60% 的受访者认为 AI 会在未来五年改变他们的工作方式,但只有 36% 认为 AI 会替代他们的工作。这说明多数人预期的是“工作被重塑”,而不是“岗位立刻消失”。这个判断其实与前面经济章节相当一致:AI 的第一波影响更像工作流再设计与能力增强,而不是一刀切的大规模岗位替换。(斯坦福人工智能研究所)

有趣的是,在美国,公众对自动驾驶仍高度不信任。AAA 调查显示,61% 的美国人害怕自动驾驶汽车,只有 13% 信任它。即使恐惧比例比 2023 年峰值下降了,仍高于 2021 年水平。这个细节提醒我们:“AI 总体乐观”并不等于公众愿意把生命安全直接交给 AI 系统。 在涉及身体安全与高责任场景时,公众接受度仍然更慢。(斯坦福人工智能研究所)

地方政策制定者对监管的支持度则相当高。2023 年,美国地方层级政策制定者中,73.7% 认同 AI 应受监管,高于 2022 年的 55.7%。这与公众信任下滑形成呼应:越是看到 AI 普及,社会越要求更强规则。(斯坦福人工智能研究所)

所以,公众意见章节的真正结论不是“人们越来越喜欢 AI”,而是:人们越来越接受 AI 会到来,但对它应如何被公司和政府管理,提出了更高要求。 这是成熟技术扩散的典型信号。(斯坦福人工智能研究所)

十一、把八章串起来看:斯坦福 2025 报告的八个核心判断

第一,AI 的前沿能力还在快速进步,但边际叙事正在从“突破”转向“扩散”。 过去大家更关心“又攻克了什么 benchmark”,现在更关心“谁在用、怎么用、能不能管、能不能赚钱”。(斯坦福人工智能研究所)

第二,训练越来越集中,使用越来越分散。 前沿模型开发越来越依赖产业巨头和大资本,但模型调用成本与开放权重模型的进步,又让更多中小组织能把 AI 接入业务。(斯坦福人工智能研究所)

第三,美国仍然最强,但不再是“遥遥领先到别人无法追赶”的状态。 美国在前沿模型和私人投资上优势仍大,中国则在论文、专利、机器人和模型追赶速度上表现突出;全球其他区域也在加入开发和部署。(斯坦福人工智能研究所)

第四,AI 商业价值已经出现,但更多是渐进式而不是神话式。 成本节约和收入提升都存在,但大多仍处于低个位数到低两位数区间;这不代表 AI 没价值,恰恰说明它像互联网和云一样,会以长期、广覆盖、流程型方式释放价值。(斯坦福人工智能研究所)

第五,治理正在从“原则讨论”进入“制度密集建设”。 州法、联邦法规、国际安全机构、深伪专项规制、基础设施投资都在增加。AI 已经被各国视为长期治理问题,而不是临时热点。(斯坦福人工智能研究所)

第六,负责任 AI 仍是当前最薄弱的一环。 风险事件不断增长,但统一评估和企业级治理实践仍跟不上。企业和政府越来越重视,但实际执行能力仍处于早期。(斯坦福人工智能研究所)

第七,科学与医疗是最接近“高价值真落地”的核心赛道。 从蛋白质预测到临床问答,再到 FDA 批准设备数量增长,AI 在这些高门槛领域已经显露出长期价值。(斯坦福人工智能研究所)

第八,社会态度不是简单的支持或反对,而是“接受 + 焦虑 + 要求监管”的混合体。 乐观度提高,信任却不一定同步提高;这会成为未来 AI 产品设计、合规和品牌治理的关键外部变量。(斯坦福人工智能研究所)

十二、我对这份报告的进一步解读:它没明说,但其实在暗示什么

我认为,斯坦福这份报告真正暗示的是:未来 AI 的胜负手不再只是模型精度,而是“系统能力”。 系统能力包括什么?包括算力获取、推理成本、行业数据、部署工程、风险治理、法规适配、用户信任、教育供给、国际合作,甚至能源与基础设施。报告之所以横跨 8 个章节,恰恰是因为 AI 已经不是单一技术变量,而是一个跨部门、跨行业、跨国家层级的复合系统。(斯坦福人工智能研究所)

它还在暗示另一个重要事实:2025 年之后,AI 的竞争会越来越像“现代工业竞争”,而不是“单点科学竞赛”。 你不能只看榜单,也不能只看论文,更不能只看融资额。真正决定长期格局的,是谁能把模型能力稳定地转化为产业能力、制度能力和社会接受度。(斯坦福人工智能研究所)

对企业来说,这意味着 AI 战略不能再停留在“买一个大模型接口试试”。真正重要的是:流程重构、数据治理、员工培训、合规审计、供应商选择和ROI设计。斯坦福的经济章节已经说明,企业真正拿到钱的地方,多数不是“做一个炫酷 demo”,而是把 AI 接进客服、供应链、营销、软件工程等具体功能中。(斯坦福人工智能研究所)

对政府来说,这意味着 AI 不是单纯“科技政策”问题,而是产业政策、教育政策、劳动力政策、隐私政策、选举治理、国际协调、基础设施投资的综合问题。斯坦福把政策与教育、公众意见和经济放在同一报告里,本身就是在传达这种系统性。(斯坦福人工智能研究所)

对个人来说,这意味着未来几年最重要的不是争论“AI 会不会取代所有人”,而是尽快形成一种新的职业素养:会与AI协同、会验证AI输出、会把AI嵌入自己的专业能力中。 因为从斯坦福的数据看,工作方式改变的概率明显高于被完全替代的概率。(斯坦福人工智能研究所)

Read more

【保姆级教程】无成本零门槛安装配置OpenClaw龙虾AI全能助手

【保姆级教程】无成本零门槛安装配置OpenClaw龙虾AI全能助手

哈喽大家好!最近爆火的 OpenClaw(龙虾AI)全能助手大家体验了吗?它不仅能帮你自动整理邮件、查询天气,还能全自动写小红书笔记并发布,简直是打工人和自媒体人的摸鱼神器! 很多小伙伴想玩但又怕配置太复杂、花销太大。今天给大家带来一篇零门槛、保姆级的安装配置教程!教你如何低成本获取云服务器,轻松实现 AI 大模型自由。全程图文指引,小白也能轻松搞定,赶紧跟着操作起来吧! 一、获取云服务器 想要畅玩 OpenClaw,首先我们需要一个服务器。这次教大家如何获取腾讯云轻量服务器来进行配置。 ⏰ 活动时间:2026年1月21日 - 3月31日 腾讯推出了登录 CodeBuddy 送 2C2G4M 轻量服务器的限时活动:登录先送1个月,活跃7天再送2个月。 👉 【官方地址】:https://www.codebuddy.cn/promotion/?ref=ie2rwhd1loq 根据页面提示安装好软件并登录账号后,直接选择一个月的轻量应用服务器即可。 之后只要累计活跃7天就能续费两个月(每天和 AI

AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

当前,国家高度重视人工智能与知识产权融合发展,《新一代人工智能发展规划》明确提出“推动人工智能在知识产权检索、分析、翻译等领域的深度应用,提升知识产权服务效率与质量”,《“十四五”国家知识产权保护和运用规划》也强调“加强知识产权信息化、智能化基础设施建设,推动专利信息跨语言互通”。 顺应这一政策导向,专利领域对专业化翻译的需求愈发迫切。八月瓜科技“妙算翻译大模型”立足需求,凭借深厚的技术积累与精准的场景适配,成为破解行业痛点、助力跨境创新的核心力量。 国际论坛亮相获认可,产品实力彰显初心 日前,妙算翻译大模型凭借在专利翻译领域的突出实力与创新成果,亮相东盟+中日韩(10+3)人工智能产业发展论坛,成为论坛上聚焦知识产权服务智能化的亮点成果,获得了行业专家、参会企业及相关机构的高度关注与广泛认可。此次论坛亮相,不仅是对妙算翻译大模型技术实力与应用价值的权威肯定,更彰显了其在推动专利翻译智能化、打破跨国创新语言壁垒方面的重要作用,为其进一步拓展市场、服务更多科技创新主体奠定了坚实基础。 能获得行业广泛认可,核心源于产品本身的专业定位与硬核实力。妙算翻译大模型在语言

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

字节开源 DeerFlow 2.0——登顶 GitHub Trending 1,让 AI 可做任何事情

打开 deerflow 的官网,瞬间被首页的这段文字震撼到了,do anything with deerflow。让 agent 做任何事情,这让我同时想到了 openclaw 刚上线时场景。 字节跳动将 DeerFlow 彻底重写,发布 2.0 版本,并在发布当天登上 GitHub Trending 第一名。这不是一次功能迭代,而是一次从"深度研究框架"到"Super Agent 运行时基础设施"的彻底蜕变。 背景:从 v1 到 v2,发生了什么? DeerFlow(Deep Exploration and Efficient Research Flow)

Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案

Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 tavily_dart 的适配 鸿蒙Harmony 深度进阶 - 驾驭 AI 原生聚合搜索、实现鸿蒙端跨域知识发现与垂直领域语义降噪方案 前言 在前文中,我们领略了 tavily_dart 在鸿蒙(OpenHarmony)生态中实现基础互联网 AI 搜索集成的魅力。但在真正的“跨国科研智能辅助”、“政务决策舆情态势感知”以及“需要接入高精密专业数据库”的场景中。简单的单次查询往往不足以触达知识的核心。面对需要在大规模并发环境下,针对特定行业域名(如 .gov / .edu)执行深层内容的并行嗅探,并且要求对回显的数万字内容执行基于 AI 强语义的重排序(Re-ranking)与引用链路审计的高阶需求。如果缺乏一套完善的聚合搜索策略与语义降噪模型。不仅会导致 AI 智能体出现由于“信息泛滥”