华为诺亚方舟实验室等联合推出新型大语言模型架构盘古 -π,同规模性能超 LLaMA

大模型之家讯 华为诺亚方舟实验室等联合推出新型大语言模型架构:盘古 -π。通过增强非线性,该架构在传统 Transformer 上做出改进,由此可以显著降低特征塌陷问题,模型输出表达能力更强。据悉,在使用相同数据训练的情况下,盘古 -π(7B)在多任务上超越 LLaMA 2 等同规模大模型,并能实现 10% 的推理加速。在 1B 规模上可达 SOTA。同时华为还基于这一架构炼出了一个金融法律大模型“云山”。该工作由 AI 大牛陶大程领衔。

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注