搜索中心

华为盘古Ultra-MoE-718B-V1.1模型正式开源

分享至

10月15日,openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B-V1.1是基于昇腾NPU训练的大规模混合专家(MoE)语言模型,总参数规模达718B,激活参数量为39B。据介绍,相比上一版本,V1.1在Agent工具调用能力上显著增强,幻觉率进一步降低。

华为盘古大模型能源领域首次商用

分享至

7月18日,盘古大模型矿山领域首次商用发布会在山东济南举行。会上,山东能源集团、华为、云鼎科技联手发布全球首个商用于能源行业的AI大模型——盘古矿山大模型。

华为盘古大模型3.0将在7月7日发布

分享至

7月6日消息,华为轮值董事长胡厚崑在2023世界人工智能大会开幕式上表示,在7月7日的华为云开发者大会上,盘古大模型3.0即将发布。