元象首个MoE大模型开源:4.2B激活参数,效果堪比13B模型

大模型之家讯 近日,元象发布XVERSE-MoE-A4.2B大模型 , 采用业界最前沿的混合专家模型架构 (Mixture of Experts),激活参数4.2B,效果即可媲美13B模型。该模型全开源,无条件免费商用,让海量中小企业、研究者和开发者可在元象高性能“全家桶”中按需选用,推动低成本部署。

元象首个MoE大模型开源:4.2B激活参数,效果堪比13B模型

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注