分享
Scan me 分享到微信

被质疑“抄袭”阿里通义千问,华为盘古团队官方回应

盘古的MoE模型与Qwen-2.514B模型在注意力参数分布上的相关性极高(平均相关性高达0.927),远超其他模型对比的正常范围。

7月5日,华为诺亚方舟实验室发布声明称,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。

据悉,华为6月30日宣布开源盘古7B稠密和72B混合专家模型,被质疑抄袭了阿里云通义千问Qwen-2.5 14B模型。质疑华为盘古团队抄袭的作者在论文中指出,盘古的MoE模型与Qwen-2.514B模型在注意力参数分布上的相关性极高(平均相关性高达0.927),远超其他模型对比的正常范围。

对此,盘古团队在声明中称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。盘古团队严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。这不仅是开源社区的通行做法,也符合业界倡导的开源协作精神。

该内容属于精选文章系列, 后获取已享有的阅读权限

升级PRO会员,享有以下权益

  • 解锁泰伯网专业深度文章
  • 免费阅读/下载12篇智库常规报告
  • 免费观看全库直播视频及回放

立即升级会员


还没有泰伯账号?

喜欢您正在阅读的内容吗?欢迎免费订阅泰伯每周精选电邮。 立即订阅

参与评论

【登录后才能评论哦!点击

  • {{item.username}}

    {{item.content}}

    {{item.created_at}}
    {{item.support}}
    回复{{item.replynum}}
    {{child.username}} 回复 {{child.to_username}}:{{child.content}}

更多精选文章推荐