一、项目介绍:2300 亿参数的轻量化 AI 全能选手
1. 基础信息
项目名称:MiniMax-M2 开发团队:MiniMax-AI(专注大模型研发与落地) 核心定位:一款专为编码(Coding)和智能代理(Agentic)工作流优化的开源混合专家(MoE)大模型,旨在以'轻量化激活参数'实现高性能,兼顾低延迟、低成本和高吞吐量,支持本地部署、API 调用和二次开发。 仓库现状:GitHub 开源免费,模型权重已同步至 Hugging Face(https://huggingface.co/MiniMaxAI/MiniMax-M2),提供完整部署文档、工具调用指南和社区支持,适配主流推理框架,目前已成为编码与代理领域热门开源项目。
2. 核心技术参数
- 模型架构:混合专家模型(MoE),采用'稀疏激活'设计,仅在推理时激活部分专家层,平衡性能与效率;
- 参数规模:总参数 2300 亿,激活参数仅 100 亿(约为 GPT-4 总参数的 1/10,激活参数的 1/5);
- 训练数据:覆盖多语言文本、代码库(Python/Java/JavaScript 等主流语言)、工具使用文档、科学文献等,数据量超万亿 Token;
- 推理效率:单 GPU(NVIDIA A10G)可支持批量推理,单条编码任务响应时间≤3 秒,批量处理吞吐量是同类模型的 2-3 倍;
- 支持框架:SGLang(≥v0.5.4.post3)、vLLM、MLX-LM,兼容 Windows/Linux/macOS 系统,支持 GPU(compute capability 7.0+)和 CPU 推理(性能略降)。
3. 项目核心价值
MiniMax-M2 解决了高性能模型部署成本高及开源模型功能单一两大痛点。通过降低硬件门槛并兼顾开发与自动化场景,适用于个人开发者提升编码效率及企业搭建低成本 AI 代理系统。
二、核心功能:编码 + 代理双场景,AI 提效无死角
MiniMax-M2 的功能设计围绕'提效'核心,覆盖从代码编写到复杂任务自动化的全流程。
1. 编码辅助:端到端开发提效
作为模型核心优势场景,编码功能覆盖'写代码 - 查错误 - 优化 - 测试'全流程,且在基准测试中表现突出:
- 多语言支持:完美适配 Python、Java、JavaScript、Go、C++ 等 20+ 主流编程语言,支持跨语言代码转换;
- 核心能力:
- 代码生成:输入自然语言需求,直接生成可运行代码,支持多文件联动;
- 代码修复:上传错误代码或粘贴异常日志,自动定位语法错误、逻辑漏洞,提供修复方案并解释原因,在 SWE-bench Verified 测试中得分 69.4(同类开源模型平均得分 55 左右,GPT-4o mini 得分 67.2);
- 代码优化:对现有代码进行性能优化、可读性优化,在 LiveCodeBench 测试中代码质量得分 89.3;
- 测试生成:根据代码自动生成单元测试、集成测试用例,支持 JUnit、Pytest 等主流测试框架,覆盖 80% 以上核心逻辑。
- 提效场景:程序员日常开发、学生代码练习、企业项目迭代,示例显示可将编码任务耗时大幅压缩。
2. 智能代理:复杂任务自动化
模型的代理能力支持自主规划工具链、执行长流程任务,无需人工干预:
- 工具链支持:覆盖 shell 命令、浏览器检索、代码运行器、数据库查询、文件处理等 10+ 常用工具,可自主判断任务需求并调用对应工具;
- 核心能力:
- 任务规划:接收复杂自然语言指令,自动拆解为多个步骤按顺序执行;
- 故障恢复:执行过程中遇到错误,自动调整策略,无需人工介入,在 BrowseComp 测试中得分 44(Claude Sonnet 4 得分 12.2,Gemini 2.5 Pro 得分 9.9);


