大模型之家讯 10月31日,MiniMax正式发布新一代音乐生成模型MiniMax Music 2.0。相较上一版本,这一模型在音乐理解与声学表现能力上实现升级,能够更准确地再现人声情绪与器乐细节,为用户提供专业级音乐创作体验。

MiniMax方面表示,Music 2.0希望让音乐表达从“小众技能”走向更普及的创造方式。
Music 2.0的核心提升来自两方面。一是人声表现更细腻。模型能够呈现接近真实歌手的声线质感,并可通过提示词(Prompt)实现多种唱法演绎,包括流行、爵士、Blues、摇滚、民谣等多种风格。此外,模型还支持多声部与对唱表现。男女声主唱之间可实现呼应、问答与动态对比,无伴奏演唱场景下仍能保留层次与节奏感。
二是编曲能力的增强。Music 2.0能够生成包括主歌、副歌、桥段在内的完整音乐结构,单曲时长可达5分钟,并提升了Hook段落的旋律吸引力,使音乐更易被记忆。用户不仅可指令生成风格化编曲,还可独立控制多种乐器,使伴奏呈现更丰富的层次和律动。
新版本还同步提升了音质。人声轨品质、空间感与细节还原均有所增强,使生成内容听感更加沉浸。在复古disco、80年代器乐等场景中,模型输出的声音动态更饱满,细节更清晰。据介绍,这得益于底层声学建模能力的全面迭代。

MiniMax在内测中发现,Music 2.0还具备影视化表达潜力。通过描述角色情绪和声场环境,模型即可生成带情绪渐进的独白式音乐配乐,具备一定叙事张力。这一能力的出现,被认为体现了模型在语义理解与声学表现力上的同步“进化”,使其不仅会唱、还“懂”情绪。
MiniMax Music 2.0现已全面开放,用户可前往官网体验。
原创文章,作者:志斌,如若转载,请注明出处:http://damoai.com.cn/archives/13412
 
                
 
                    