你可能没想到,一颗没用上NVIDIA芯片的中国AI模型,竟然又让美股科技板块吓出一身冷汗。
说的是DeepSeek R2。就在近期,关于它的最新爆料几乎炸穿了整个科技圈:总参数量飙到1.2万亿,整整比R1翻了一倍,而且训练全程完全没有用NVIDIA显卡,靠的全是华为的昇腾910B。
这事儿真的不只是模型换了芯片这么简单,它可能意味着,中国AI生态,真的要走出自己的那条“去N化”路线了。
先说参数,这次R2选择了混合专家模型(MoE)架构,加上更智能的门控机制,能在处理大负载任务时,实现更细粒度的专家调度——不是胡堆参数,而是让每一次推理都更“聪明地用力”。哪怕参数量翻倍,单位推理成本依然暴降,这背后,是算力调度的质变。
华为昇腾910B
具体降了多少?对标一下GPT-4你就知道了:据称,DeepSeek R2在推理环节的单位成本,相比GPT-4便宜了97.4%!这是什么概念?R2处理100万个字符输入只要0.07美元,输出也就0.27美元。直接把AI从“天价神器”打成“平价工具”。
更炸裂的是,整个训练过程压根没碰NVIDIA的GPU。所有的核心算力,全交给了华为昇腾910B。这枚国产AI芯片的计算能力在FP16精度下能跑到512 PetaFLOPS,芯片利用率高达82%,整体表现达到了A100集群的91%。这已经不是“能不能用”的问题了,而是国产芯片是否能真正“顶上去”的答案,已经初步揭晓。
要知道,这可不是小打小闹的实验室试验,而是实打实的工程级训练部署。如果后续R2真的上线,意味着中美在AI训练体系上,可能第一次形成了“硬件体系并行发展”的局面。
放在当下中美科技摩擦的大背景里,这个节点就更微妙了。NVIDIA的高端芯片出口已经受到新一轮限制,美国AI厂商依赖芯片的那种“护城河”正被削薄。DeepSeek R2这种“芯片自主+成本打折”的新路线,会不会成为中国AI真正意义上的“突围样本”?我觉得,有这个可能。
当然,现在的一切仍是爆料阶段,还需要看DeepSeek R2真正面世后的表现。但有一点可以肯定:它的技术选型和国产化程度,正在传递一种非常明确的信号——中国不打算在AI底层算力上再等美国开绿灯了。
说回最开始那个问题:为什么DeepSeek R2能让NVIDIA再次“颤一颤”?因为它不仅从成本上正面压制了OpenAI的产品,还在算力上提供了一个去N化的替代路径。而这,可能才是AI格局变动的真正开始。
你怎么看?你觉得华为的芯片,真的能撑得起中国AI的大模型吗?欢迎评论区聊聊,我们一起拆这场大模型风暴背后的国产力量。