分享
Scan me 分享到微信

华为盘古Ultra-MoE-718B-V1.1模型正式开源

10月15日,openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B-V1.1是基于昇腾NPU训练的大规模混合专家(MoE)语言模型,总参数规模达718B,激活参数量为39B。据介绍,相比上一版本,V1.1在Agent工具调用能力上显著增强,幻觉率进一步降低。(华为计算官微)
喜欢您正在阅读的内容吗?欢迎免费订阅泰伯每周精选电邮。 立即订阅

24小时最热快讯