本周,华为首次公布了完全用昇腾算力训练的两个大模型——盘古Pro 72B和 盘古Ultra MoE 718B。昇腾算力在全球范围内的实力再次得到验证。昇腾万卡集群在盘古Ultra MoE训练过程中表现出色,算力利用率从30%提升到41%,领先业界。盘古 Pro大模型,参数规模720亿,在权威榜单SuperCLUE中位居前列,技术结果得到公开验证。
来源:@国是直通车
上一篇:奇瑞汽车公布酒驾监测专利:可识别预警潜在酒驾行为
下一篇:工业和信息化部:到2028年 基本实现全国公共算力标准化互联