8月15日,昆仑万维(300418)正式上线Mureka V7.5模型。Mureka V7.5在中文歌曲上的演绎再上新台阶,不仅实现了中文歌曲音色、演奏技法的大幅提升,还完成了中文歌曲咬字与情感表现提升。
首先,基于对中文曲风和元素的强大理解,Mureka的理解模型对传统民歌、戏曲到经典华语流行金曲乃至当代民谣音乐拥有深刻认知。这种在中文音乐多样性与文化特性上的深度积累,使模型在理解和生成中文音乐时,能够更准确地传达其特有的艺术神韵和情感色彩。
其次,为了进一步提升生成音乐中人声表现的真实性与情感深度,针对歌曲特点优化了ASR技术,使之成为理解模块的有力延伸。
Mureka V7.5不仅能「听懂」对音乐旋律与节奏的制作要求,更能深刻理解并再现不同文化语境下,特别是中文音乐中蕴含的细腻情感与艺术表达,从而为生成高度符合目标审美与文化语境、兼具艺术性与真实感的音乐作品,打下坚实技术基础。
同时,在语音模型方向上,昆仑万维语音团队推出MoE-TTS——首个基于MOE的角色描述语音合成框架。
该框架创新性地结合预训练大语言模型(LLM)文本能力与语音专家模块(Speech Expert Modules),为文本与语音分别配置专用专家模块,并在Transformer核心结构中引入模态路由,确保各模态独立优化、互不干扰。在冻结文本参数的同时高效对齐跨模态信息,实现“知识零损失”的泛化理解能力。
MoE-TTS的发布不仅为学术界提供了可复现的开放描述 TTS 解决方案,也证明了模态解耦 + 知识冻结迁移的技术路径在语音合成中的巨大潜力。这一突破有望推动行业从“封闭标签式控制”走向“自然语言自由控制”的新范式,加速数字人、虚拟助手和沉浸式内容创作的体验升级。
MoE-TTS目前仍在迭代中,后续规划将集成至旗下Mureka-Speech平台作为角色配音的基座模型,为全球开发者和创作者提供开放、高效、可定制的描述性语音合成能力。