【AI】KIMI2.5---开源榜第一

开源 Kimi 2.5 全景手册(2026 年 1 月版)

Moonshot AI 于 2025-12 开源的「多模态 + Agent-Swarm」权重
本文汇总已公开(✅)与仅 API(⚠️)信息,方便一键部署与落地

1. 江湖定位与榜单成绩

基准分数排名(开源)备注
LiveBench 2025-1276.4% Pass@1🥇 第 1打平 Claude-4.5-Sonnet,落后 GPT-4.1 约 2pp
Agent: BrowseComp78.4🥇 第 1唯一公开「Agent-Swarm」权重
Code: SWE-Bench Verified76.8🥇 第 1领先 DeepSeek-V3.2 约 9pp
OCR: OmniDocBench88.8🥇 第 1百页 PDF 不截断

2. 架构原理(已开源 ✅)

  • 类型:原生多模态 Transformer
  • 总参 / 激活:1 T / 120 B(MoE,Top-8 路由)
  • 预训练:15 T tokens(文本+图+视频帧+工具轨迹)
  • 优化器:Muon + ZeRO-3 + 8-bit AdamW,显存↓35%
  • 创新 1. Agent-Swarm
    • Planner → 子任务 → 并行子 Agent(≤100)→ 结果聚合
    • 训练:PARL(Parallel Agent RL)奖励 = 完成度 - 步数 - 冲突
  • 创新 2. 视觉-文本联合 Attention
    • 4K×4K 原图输入,不压 224×224,OCR/图表还原度高

3. 开源清单(GitHub & HuggingFace)

组件大小协议地址
fp16 权重240 GBApache-2.0kimi-2.5-fp16
q4_k_m 权重38 GBApache-2.0kimi-2.5-q4km
推理代码Apache-2.0kimi-infer
VSCode 插件Apache-2.0Kimi-Code
Chrome 插件Apache-2.0Kimi-Browse

4. 本地部署步骤(Docker 一行启动)

① 硬件建议

精度最低配置速度
fp162×A100-80 GB25 tokens/s
q4_k_m1×A100-80 GB 或 2×RTX4090-24 GB12 tokens/s

② 拉镜像

docker pull kimiopensource/kimi-2.5:2401-cuda121 

③ 启动服务

docker run --gpus all -p 8080:8080 \ -v /data/kimi-2.5-fp16:/model \ kimiopensource/kimi-2.5:2401-cuda121 \ kimi-infer server --model /model --swarm 100 --max-tools 1500

④ 客户端调用(OpenAI-Compatible)

import openai client = openai.OpenAI(base_url="http://localhost:8080/v1", api_key="none") resp = client.chat.completions.create( model="kimi-2.5", messages=[{"role":"user","content":"把这份 40 页 PDF 总结成 3 段话"}], extra_body={"use_swarm":True,"max_parallel":50})print(resp.choices[0].message.content)

5. 典型用例与实测

场景输入输出耗时子 Agent 数
百页财报速读120 页 PDF + 表格1 页 Markdown + 3 图表38 s45
前端 0→1手绘线框 PNG可运行 React+Tailwind22 s38
多语言小票 OCR17 国扫描图JSON(金额-币种-日期)15 s1
竞品情报“2026 人形机器人”100 家公司表 + 来源55 s92

6. 性能 & 成本

项目数值备注
输入 1M tokens¥4(缓存命中 ¥0.7)官方 API 价
输出 1M tokens¥21≈ GPT-4.1 API 45 %
端侧 q4 速度12 tokens/sRTX 4090×2
首响延迟180 ms本地实测

7. 局限与注意事项

⚠️ 训练代码与数据集未开源,仅推理权重
⚠️ 中文幻觉率约 6 %,需插件事实核查
⚠️ 超长视频(>30 min)时间戳误差 ±3 s
⚠️ Agent-Swarm 对网络带宽敏感,建议 ≥1 Gbps 专线


8. 总结

Kimi 2.5 是目前唯一把 1 T MoE + 原生视觉 + 100 并行 Agent 一起开源的模型;
想在本地/私有云跑一个“全能员工”,它几乎是 2026 年初的最佳选择。

Read more

Git BASH安装教程

什么是 Git Bash? 简单来说,Git Bash 是为 Windows 系统提供的模拟 Linux 风格的 Bash 命令行环境,主要用于运行 Git 命令。Bash 是 Linux 和 macOS 用户常用的命令行工具,而 Windows 自带的命令提示符与它不兼容。因此,Git for Windows 软件包中包含了 Git Bash,让你可以在 Windows 上使用熟悉的 Bash 语法来操作 Git 和进行文件管理 第一步:下载 Git for Windows Git Bash 是 Git for Windows

By Ne0inhk
Neo4j:图数据库使用入门

Neo4j:图数据库使用入门

文章目录 * 一、Neo4j安装 * 1、windows安装 * (1)准备环境 * (2)下载 * (3)解压 * (4)运行 * (5)基本使用 * 2、docker安装 * 二、CQL语句 * 1、CQL简介 * 2、CREATE 命令,创建节点、关系、属性 * 3、MATCH 命令,查询 * 4、return语句 * 5、where子句 * 6、创建关系 * 7、delete删除节点和关系 * 8、remove删除标签和属性 * 9、set添加、更新属性 * 10、ORDER BY排序 * 11、UNION合并 * 12、

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 husky 守卫鸿蒙项目的 Git 提交规范(前端工程化必备)

Flutter for OpenHarmony: Flutter 三方库 husky 守卫鸿蒙项目的 Git 提交规范(前端工程化必备)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在 OpenHarmony 项目的团队协作中,我们最怕遇到“带病提交”的代码。比如:某位开发者提交的代码没经过 dart format 美化、或是包含明显的 lint 警告,甚至导致整个鸿蒙工程编译失败。如果在 CI(持续集成)阶段才发现,修复成本就太高了。 husky 是从前端生态圈引进的 Git Hooks 管理神器。它能让你极简地配置 Git 的各个钩子(如 pre-commit),在代码真正提交到远端(AtomGit)之前,强制执行格式化或单元测试,确保入库的代码永远是高质量的。 一、Git Hook 工作流模型 husky 在本地提交阶段建立了一道自动化的“安检门”。 通过 失败

By Ne0inhk

GitHub Copilot 三种模式详解:Ask、Agent、Edit

🌟 前言 GitHub Copilot作为AI编程助手的先驱,为开发者提供了三种不同的交互模式,每种模式都有其独特的优势和适用场景。本文将深入解析这三种模式的特点、使用场景以及如何选择合适的模式来提升开发效率。 📋 目录 * Ask模式:智能问答助手 * Agent模式:自主执行代理 * Edit模式:精准代码编辑 * 三种模式对比分析 * 实际应用场景 * 选择建议 * 总结 🤖 Ask模式:智能问答助手 核心特点 Ask模式是最基础的交互方式,它将GitHub Copilot变成了一个专业的编程顾问。这种模式专注于知识传递和问题解答。 * 🎯 主要功能: * 回答编程概念和技术问题 * 提供代码示例和最佳实践 * 解释复杂的技术概念 * 调试建议和错误分析 * 💡 交互特点: * 对话式交互界面 * 即时问答反馈 * 支持连续深入提问 * 不直接修改项目文件 典型使用场景 👨‍💻 开发者:什么是React的useEffect钩子? 🤖 Copilot:useEffect是Reac

By Ne0inhk