大模型之家讯 近日,字节跳动Seed团队正式对外发布其最新研发成果——Seed LiveInterpret2.0端到端同声传译大模型。Seed LiveInterpret2.0基于全双工端到端语音生成理解框架,支持中英互译,并可实时处理多人语音输入,像人类同传译员一样以极低的延迟 “边听边说”,一边接收源语言语音输入,一边直接输出目标语言的翻译语音。此外,该模型还支持零样本声音复刻,无需提前采集声音样本,仅通过实时对话即可合成“原声”语音翻译,让沟通更加流畅自然。在延迟表现上,Seed LiveInterpret2.0在语音到文本场景中,输出首字平均延迟仅2.21秒,在语音到语音场景中,输出延时仅2.53秒,做到了对翻译质量以及时延的均衡。