华为盘古Ultra-MoE-718B-V1.1模型正式开源
华为宣布openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B-V1.1是基于昇腾NPU训练的大规模混合专家(MoE)语言模型,总参数规模达718B,激活参数量为39B。相比上一版本,V1.1在智能体工具调用能力上显著增强,幻觉率进一步降低。在9月最新SuperCLUE榜单中,openPangu-718B 稳居开源模型总榜第三,在数学推理、科学推理、代码生成、精确指令遵循等六大核心维度均表现优异。尤其值得关注的是,其幻觉控制项得分高达81.28,甚至超过部分闭源巨头,凸显出在输出可靠性上的技术优势。
—— 界面新闻
华为宣布openPangu-Ultra-MoE-718B-V1.1正式在GitCode平台开源,模型权重与技术细节全面公开。openPangu-Ultra-MoE-718B-V1.1是基于昇腾NPU训练的大规模混合专家(MoE)语言模型,总参数规模达718B,激活参数量为39B。相比上一版本,V1.1在智能体工具调用能力上显著增强,幻觉率进一步降低。在9月最新SuperCLUE榜单中,openPangu-718B 稳居开源模型总榜第三,在数学推理、科学推理、代码生成、精确指令遵循等六大核心维度均表现优异。尤其值得关注的是,其幻觉控制项得分高达81.28,甚至超过部分闭源巨头,凸显出在输出可靠性上的技术优势。
—— 界面新闻