StepFun开源“全球首个”音频编辑模型:用文字控制声音情绪

智能语音交互机器学习域名与网站

音频编辑一直是个技术活。专业软件复杂,学习成本高,普通人想做点音频内容,门槛不低。

StepFun AI刚刚开源“全球首个”音频编辑模型Step-Audio-EditX。

picture.image

核心想法很直接:用文字控制音频。想让AI说话时带点情绪?写个提示词。想加点呼吸声、笑声?也是文字指令搞定。不用再在复杂界面里调各种参数,这确实是个进步。

具体能做什么?情感控制支持愤怒、开心、悲伤、兴奋等十几种状态,说话风格可以调成撒娇、老人、小孩、耳语等。副语言元素更细致,呼吸、笑声、叹气、疑问语气,总共10种类型都能精确控制。想要四川话或粤语?在文本前加个标签就行。

技术细节上,3B参数的统一架构,支持中英文及多种方言的零样本语音合成。零样本意味着不需要提前训练特定人的声音数据,直接就能生成或编辑。Apache 2.0开源协议,单张GPU就能跑,12GB显存足够。

picture.image

模型架构分三部分:双码本音频分词器负责把音频转成离散token,音频LLM生成token序列,音频解码器再把token还原成音频波形。整个流程用了SFT和PPO训练,支持迭代式编辑。

picture.image

从对比数据看,在零样本克隆和情感控制上,Step-Audio-EditX确实比MinV2-nd、Double TTS 2.0等模型表现更好。数字很漂亮,但真正的考验在实际使用中。

部署也不复杂。Python 3.10以上,PyTorch 2.4.1,CUDA支持。提供了Docker镜像,还有Web demo和命令行工具。想省显存的话,支持INT8和INT4量化,降低硬件要求。

"vibe一切"正在各个领域蔓延。图像生成如此,视频生成如此,现在轮到音频。传统的模块化流水线被统一模型替代,复杂参数被自然语言指令取代。门槛在降低,而拉开差距的就剩下了“创意”。

项目地址:

关注公众号回复“进群”入群讨论。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
边缘云游戏行业解决方案
《“加速”游戏体验升级,火山引擎边缘云游戏行业解决方案》 许思安 | 火山引擎边缘云高级总监
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论