大模型之家讯 4月3日,谷歌正式推出Gemma 4大模型,包含四种不同规格的通用模型:高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿参数的混合专家模型(MoE)以及310亿参数的稠密模型(31B)。此次发布进一步丰富了Gemma系列的产品矩阵,旨在为开发者和企业提供更灵活、高效的AI解决方案,覆盖从轻量级应用到高性能计算的多样化需求。
大模型之家讯 4月3日,谷歌正式推出Gemma 4大模型,包含四种不同规格的通用模型:高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿参数的混合专家模型(MoE)以及310亿参数的稠密模型(31B)。此次发布进一步丰富了Gemma系列的产品矩阵,旨在为开发者和企业提供更灵活、高效的AI解决方案,覆盖从轻量级应用到高性能计算的多样化需求。