7月5日,华为诺亚方舟实验室发布声明称,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。
据悉,华为6月30日宣布开源盘古7B稠密和72B混合专家模型,被质疑抄袭了阿里云通义千问Qwen-2.5 14B模型。质疑华为盘古团队抄袭的作者在论文中指出,盘古的MoE模型与Qwen-2.514B模型在注意力参数分布上的相关性极高(平均相关性高达0.927),远超其他模型对比的正常范围。
对此,盘古团队在声明中称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。盘古团队严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。

{{item.content}}