华为发布准万亿模型盘古Ultra MoE
2025-05-30 18:26
近日,华为推出参数规模7180亿的新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告。在训练方法上,华为首次披露在昇腾CloudMatrix 384超节点上,打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。 此外,近期发布的盘古Pro MoE大模型,在参数量为720亿,激活160亿参数量的情况下,大模型榜单SuperCLUE的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。(科创板日报)
喜欢您正在阅读的内容吗?欢迎免费订阅泰伯每周精选电邮。
立即订阅
声明:泰伯网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述,文章内容仅供参考。