7月5日,华为诺亚方舟实验室发布声明称,盘古Pro MoE开源模型是基于昇腾硬件平台开发、训练的基础大模型,并非基于其他厂商模型增量训练而来。对此,盘古团队在声明中称,盘古Pro MoE开源模型部分基础组件的代码实现参考了业界开源实践,涉及其他开源大模型的部分开源代码。盘古团队严格遵循开源许可证的要求,在开源代码文件中清晰标注开源代码的版权声明。
点评:华为此前6月30日宣布开源盘古7B稠密和72B混合专家模型,随后,一项发布于GitHub的研究引发业界热议,该研究的作者认为,华为推出的盘古大模型与阿里巴巴发布的通义千问Qwen-2.5 14B模型在参数结构上存在“惊人一致”,两个模型在注意力参数分布上的平均相关性高达0.927,远超其他模型对比的正常范围。