6月17日,国产大模型初创公司MiniMax(希宇科技)宣布推出了全球首个开源的大规模混合架构的推理模型M1,不仅性能超过国内的闭源模型,接近最新版的DeepSeek R1以及海外的最领先模型,同时还拥有更为出色的效率和业内最高的性价比。
根据官方的披露的对比报告显示,MiniMax-M1多项基准测试比肩DeepSeek-R1、Qwen3等开源模型,接近OpenAI O3等海外的最领先模型。
在阿里巴巴集团、腾讯和 IDG 资本的支持下,MiniMax 声称其 Lightning Attention 机制是一种计算注意力矩阵的方法,可以提高训练和推理效率,使其 M1 模型在计算长上下文输入和尝试推理时具有优势。
因此,M1显著的优势是支持目前业内最高的100万上下文的输入,跟闭源模型里面的 Google Gemini 2.5 Pro 一样,是 DeepSeek R1 的 8 倍,以及业内最长的8万Token的推理输出。
MiniMax表示,这主要得益于其独创的以闪电注意力机制为主的混合架构,从而在计算长的上下文输入以及深度推理的时候显著高效。例如,在用8万Token深度推理的时候,只需要使用DeepSeek R1约30%的算力。这个特性使得MiniMax M1在训练和推理的时候都有很大的算力效率优势。
除此之外,MiniMax提出了更快的强化学习算法CISPO,通过裁剪重要性采样权重(而非传统token更新)提升强化学习效率。在AIME 的实验中,MiniMax发现这比包括字节近期提出的 DAPO 等强化学习算法收敛性能快了一倍,显著的优于 DeepSeek 早期使用的 GRPO。
得益于上述两个技术创新,MiniMax最终强化训练过程非常高效,超出预期。实际上整个强化学习阶段只用到512块H800三周的时间,租赁成本只有53.47万美金。这比一开始的预期少了一个数量级。
MiniMax在业内主流的 17 个评测集上详细评测了M1,结果显示M1在长上下文理解任务中表现卓越,仅以微弱差距落后于Gemini 2.5 Pro,但在在代理工具使用场景(TAU-bench)中战胜了Gemini 2.5 Pro。具体的结果如下:
因为相对高效的训练和推理算力使用,MiniMax宣布在 MiniMax APP 和 Web 上都保持不限量免费使用。
同时,还将以业内最低的价格在官网提供API:在0-32k的输入长度的时候,输入0.8元/百万token, 输出8元/百万token;在32k-128k的输入长度的时候,输入1.2元/百万token, 输出16元/百万token;在最长的 128k-1M 的输入长度的时候,输入2.4元/百万token, 输出24元/百万token。
前面两种模式都比 DeepSeek-R1 性价比更高,后面一种模式 DeepSeek 模型不支持。
编辑:芯智讯-浪客剑