全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

全球顶级AI大模型最新排名出炉!Gemini 3.1 Pro与GPT-5.4智能并列第一,中国 GLM-5强势杀入前 5,DeepSeek V3.2 成性价比之王!

你好,我是杰哥

刚刚,权威 AI 评测平台Artificial Analysis 发布了全球最新大模型三维排名:智能指数(Intelligence)、**输出速度(Output Tokens per Second)**和 价格(USD per 1M Tokens)

这次排名亮点满满:

  • 中美模型继续霸榜智能顶端,Gemini 3.1 Pro Preview 和 GPT-5.4(xhigh)并列57分第一
  • 中国模型表现亮眼GLM-5 智能第5(50分),DeepSeek V3.2虽然智能中等,但价格+速度综合性价比极高,继续展现“中国力量”!
GLM-5 是由中国领先的 AI 公司智谱AI(Zhipu AI)于 2026年2月11日(春节前夕)正式发布的新一代开源旗舰大模型,也被视为国产大模型在2026年开年的重磅作品。它在全球权威评测平台 Artificial AnalysisIntelligence Index 中获得 50分,位居全球第 5、开源模型第一,成为中国模型首次突破这一分数线的重要里程碑。
  • 速度王被 NVIDIA Nemotron 3 Super 夺走,价格最便宜的仍是开源/中国系模型。

下面我们一起具体来看。

一、智能指数(Intelligence)

核心能力排名,代表模型的综合推理、知识、创造力水平。

排行榜如下图(前10名):

  • Gemini 3.1 Pro Preview(Google):57分(并列第1)
  • GPT-5.4 (xhigh) (OpenAI):57分(并列第1)
  • Claude Opus 4.6 (max) (Anthropic):53分
  • Claude Sonnet 4.6 (max) (Anthropic):52分
  • GLM-5(智谱AI):50分 (中国模型第1,全球第5!)
  • Grok 4.20 Beta 0309(xAI):48分
  • Gemini 3 Flash(Google):46分
  • DeepSeek V3.2:42分
  • Nemotron 3 Super(NVIDIA):36分
  • gpt-oss-120B (high) :33分

杰哥点评
GeminiGPT-5.4 再次并驾齐驱,智能天花板被拉到新高度!中国 GLM-5 从上期榜单继续前进,稳居前 5,证明国产大模型在核心能力上已与国际顶级阵营并肩。DeepSeek V3.2 虽未进前 5,但作为开源/低成本代表,仍有不俗表现。Claude 双子星依然稳健,但已被中美模型拉开小差距。

二、输出速度(Speed)

每秒输出Token数,直接决定聊天、写作、代码生成的流畅度。

排行榜如下图(前10名):

  • NVIDIA Nemotron 3 Super:455 tokens/s(第1!)
  • gpt-oss-120B (high) :279 tokens/s(第2)
  • Grok 4.20 Beta 0309 :216 tokens/s
  • Gemini 3 Flash:166 tokens/s
  • Gemini 3.1 Pro Preview :125 tokens/s
  • GPT-5.4 (xhigh) :73 tokens/s
  • GLM-5:67 tokens/s
  • Claude Sonnet 4.6 (max) :55 tokens/s
  • Claude Opus 4.6 (max) :48 tokens/s
  • DeepSeek V3.2:28 tokens/s

杰哥点评
速度王彻底易主!NVIDIA Nemotron 3 Super455 tokens/s 碾压,成为“闪电侠”。Grok 4.20Gemini Flash 也进入前 4,日常使用体验极佳。GPT-5.4GLM-5 速度中等偏上,DeepSeek V3.2 速度偏慢,但胜在后面价格优势巨大——适合不追求极致速度的场景

三、价格(Price)

每百万Token美元价格(输入+输出综合参考),直接影响大规模使用成本。

排行榜如下图(从低到高):

  • gpt-oss-120B:0.3美元
  • DeepSeek V3.2:0.3美元(并列最便宜!)
  • Nemotron 3 Super:0.4美元
  • Gemini 3 Flash:1.1美元
  • GLM-5:1.6美元
  • Grok 4.20 Beta 0309:3美元
  • Gemini 3.1 Pro Preview:4.5美元
  • GPT-5.4 (xhigh) :5.6美元
  • Claude Sonnet 4.6 (max) :6美元
  • Claude Opus 4.6 (max) :10美元

杰哥点评
性价比之王诞生DeepSeek V3.2gpt-oss-120B 以 0.3美元/百万Token 并列最低,NVIDIA Nemotron 仅 0.4 美元——这三款几乎是“白菜价”。而顶级智能模型(Gemini/GPT-5.4/Claude Opus)价格明显更高,适合需要极致能力的场景。中国模型再次在成本控制上领先全球

总结:怎么选才是最优解?

  • 追求最强智能(写作、推理、复杂任务):Gemini 3.1 Pro PreviewGPT-5.4(57分天花板)
  • 追求极致速度(实时聊天、代码生成):NVIDIA Nemotron 3 Super(455 tokens/s)
  • 追求性价比(日常高频使用、创业/企业):DeepSeek V3.2gpt-oss-120B(0.3美元+可用速度)
  • 中国用户优选:GLM-5(智能前5+价格合理)、DeepSeek V3.2(最便宜)

AI时代,没有绝对最强,只有最适合。根据你的使用场景(智能/速度/预算)灵活选择,就能事半功倍!

你最看好哪款模型?是在用 GeminiGPT 还是国产 DeepSeek/GLM?欢迎评论区告诉我~

关注【AI信息风向】后,回复 666,即可获取更多 AI 行业报告。

AI 技术正以前所未有的速度发展,它将如何塑造我们的未来?让我们拭目以待。

Read more

告别“打字机”:Generative UI 如何重塑 AI 时代的前端交互?

告别“打字机”:Generative UI 如何重塑 AI 时代的前端交互?

自从大语言模型(LLM)爆发以来,前端开发者接到了无数“给系统加个 AI 对话框”的需求。我们熟练地接入 API,处理流式(Streaming)响应,看着文字像打字机一样一个个蹦出来。 但这真的是 AI 时代前端交互的终点吗? 想象一下这个场景:用户问“帮我对比一下苹果和微软的近期股价”。传统的聊天机器人只能吐出一堆干瘪的文字,或者勉强渲染一个 Markdown 表格。但作为一名前端工程师,你的组件库里明明躺着精美的 Echarts K线图、带有交互提示的卡片和丝滑的动画。 为什么我们不能让大模型直接“生成”一个可交互的 React 或 Vue 组件呢?答案是:可以。这就是目前前端领域最具颠覆性的范式——Generative UI(生成式 UI)。 什么是 Generative UI? Generative UI 是指结合 AI

openclaw新手入门指南:一文看懂环境搭建、模型配置与 WebUI 远程访问

目录 * 1. 基础设施层:OpenClaw 运行环境的初始化 * 2. 算力与模型层:蓝耘 MaaS 平台的接入配置 * 2.1 协议适配与 JSON 配置 * 3. 编排层:OpenClaw 初始化与 Onboarding 流程 * 3.1 模式选择与基础设置 * 3.2 模型提供商与应用集成策略 * 3.3 技能库(Skills)装载与服务启动 * 4. 网络架构与网关(Gateway)配置 * 4.1 网关暴露与安全策略 * 4.2 Web UI 远程访问与设备配对(Device Pairing) * 5. 高级模型编排与 JSON 配置深度解析

什么是NVIDIA Isaac Sim WebRTC Streaming Client?

NVIDIA Isaac Sim WebRTC Streaming Client是NVIDIA为Isaac Sim打造的远程串流客户端,基于WebRTC协议,可让用户在无高性能GPU的设备上远程访问运行于云端或工作站的Isaac Sim(含无头模式),实现低延迟交互与图形化界面显示,是机器人仿真远程协作与开发的核心工具。以下从核心特性、运行条件、使用流程、关键配置与常见问题等方面详细介绍: 核心定位与优势 * 核心功能:将Isaac Sim的图形界面、物理仿真画面与交互操作远程串流至本地,支持模型编辑、场景调试、机器人控制等全流程操作,无需本地渲染能力。 * 核心优势 * 低延迟传输:WebRTC协议优化实时音视频流,适配机器人仿真的实时交互需求。 * 跨平台兼容:支持Linux、Windows、macOS客户端,适配主流桌面系统。 * 适配无头模式:完美对接Isaac Sim headless实例,适合云端/服务器部署场景。 * 高安全性:通过加密传输与端口隔离,保障远程访问安全。 运行要求 1. 服务端(Isaac Sim 侧)

CRMEB 标准版系统(PHP)- 前端多语言开发指南

一、多语言应用的典型场景 前端多语言支持通常出现在以下类型的组织或项目中:跨国公司、电商平台、跨文化交流平台、开源项目、面向全球用户的产品等等。在这些场景中,前端需要支持多种语言,如英语、中文、日语、韩语等,以更好地服务不同地区的用户。 二、什么是国际化(i18n)? 国际化(Internationalization,简称 i18n)是指软件设计时使其能够轻松适应不同语言和地区的过程。i18n 这个缩写中,“i” 和 “n” 分别是单词的首尾字母,中间的 “18” 表示这两个字母之间的字符数。 通俗来说,i18n 就是让一个页面能够根据用户设置切换显示不同语言内容的能力。 三、实现多语言功能的常见方式 1. 多语言数据支持 提供足够的语言数据集,包含不同语言的词汇、语法规则、翻译数据等,以支持不同语言的理解和生成,这是实现多语言能力的基础。 2. 机器翻译技术 使用机器翻译技术将内容或翻译成不同语言,以支持多语言交互,这需要较强的机器翻译模型和系统。