音频编辑一直是个技术活。专业软件复杂,学习成本高,普通人想做点音频内容,门槛不低。
StepFun AI刚刚开源“全球首个”音频编辑模型Step-Audio-EditX。
核心想法很直接:用文字控制音频。想让AI说话时带点情绪?写个提示词。想加点呼吸声、笑声?也是文字指令搞定。不用再在复杂界面里调各种参数,这确实是个进步。
具体能做什么?情感控制支持愤怒、开心、悲伤、兴奋等十几种状态,说话风格可以调成撒娇、老人、小孩、耳语等。副语言元素更细致,呼吸、笑声、叹气、疑问语气,总共10种类型都能精确控制。想要四川话或粤语?在文本前加个标签就行。
技术细节上,3B参数的统一架构,支持中英文及多种方言的零样本语音合成。零样本意味着不需要提前训练特定人的声音数据,直接就能生成或编辑。Apache 2.0开源协议,单张GPU就能跑,12GB显存足够。
模型架构分三部分:双码本音频分词器负责把音频转成离散token,音频LLM生成token序列,音频解码器再把token还原成音频波形。整个流程用了SFT和PPO训练,支持迭代式编辑。
从对比数据看,在零样本克隆和情感控制上,Step-Audio-EditX确实比MinV2-nd、Double TTS 2.0等模型表现更好。数字很漂亮,但真正的考验在实际使用中。
部署也不复杂。Python 3.10以上,PyTorch 2.4.1,CUDA支持。提供了Docker镜像,还有Web demo和命令行工具。想省显存的话,支持INT8和INT4量化,降低硬件要求。
"vibe一切"正在各个领域蔓延。图像生成如此,视频生成如此,现在轮到音频。传统的模块化流水线被统一模型替代,复杂参数被自然语言指令取代。门槛在降低,而拉开差距的就剩下了“创意”。
项目地址:
- 模型:https://modelscope.cn/collections/Step-Audio-a47b227413534a
- GitHub:https://github.com/stepfun-ai/Step-Audio-EditX
- 在线演示:https://stepaudiollm.github.io/step-audio-editx/
关注公众号回复“进群”入群讨论。
