元象首个MoE大模型开源

大模型之家讯 今日,据元象XVERSE微信公众号发文,元象发布XVERSE-MoE-A4.2B大模型 ,采用业界最前沿的混合专家模型架构,激活参数4.2B,效果即可达到13B模型水准。据介绍,XVERSE-MoE-A4.2B实现了极致压缩,相比XVERSE-13B-2仅用30%计算量,并减少50%训练时间。在多个权威评测中,元象MoE效果大幅超越Gemma-7B、Mistral-7B、Llama2-13B等开源模型,并接近超大模型Llama1-65B。该模型全开源,无条件免费商用。

上一篇:

下一篇:

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注