几个月前,我写过一篇MiniMax的AI声音模型。
我说,那就是当时最强的中文AI音频。数据也有点小爆。
而在去年12月之后,至今将近半年时间,在AI声音模型这块,我觉得还是没有能超越MiniMax的。
直到昨天,我看到MiniMax在X上发了他们新一代声音模型的技术报告,Speech-02来了。看来想突破Speech-01的上限,还是得他们自己。
不过就是这数据是真的惨淡,看来大家最近关注的都是Agent、MCP,AI音频关注的人,是真的少。。。
我大概翻了一下,跑分确实牛逼不少,主要是WER和SIM这两数据。
两个维度,左边是WER,越低越好,代表这个模型讲出来的话,有多准确。右边是SIM,越高越好,代表这个模型讲出来的声音,有多像原声。
你可以简单的理解成,左边看的是AI说的对不对,右边看的是AI像不像本人。
WER的数据,除了一些欧美的小语种,主流语种几乎都压了目前世界公认最被推崇的11Labs一头,特别是周边的亚洲国家,日本、越南、泰国,几乎都是纯碾压姿态,所有语种的WER指标几乎平均都在1~4之间,很牛逼,他们这是正儿八经在多语种上发力了
而音色相似度上,上一代其实做的没有11labs好,海外的很多反馈都是声音没有11Labs像,但是这一次,实现了全面超越,32个语种,每一个在跑分上都比11Labs要强,我自己实测,也能明显感觉到,相似度已经比11labs好了。
我又去看了一下AI音频领域的盲测竞技场。
意外的发现。
MiniMax这个新模型。
登顶了。。。
现在,这个新模型,MiniMax Speech-02,已经可以在MiniMax官网用了,目前只有海外版有声音克隆,别问我为什么只有海外版有。
网址在此:https://www.hailuo.ai/audio
我随手用MiniMax+即梦大师版,搓了一个有趣的郭小纲动画,给大家直观的感受一下,MiniMax的Speech-02有多强。
我就扔了一段不到1分钟的原声进去复刻,说实话,这音调,这起伏,这音色,强的有点不像话了。
我第一次听到的时候,真的感觉真假难分。
不仅郭小纲,还能让,周小伦,来夸一夸我。
太像了。
你闭着眼睛,你是真的能感觉到,是周董,在你面前挥舞着手臂,用那独特的强调跟你说,你还挺屌的。
还有之前万艾尔登法环,预告片里面菈妮的配音我一直很喜欢。
我也让MiniMax复刻了一下。
这是上一代Speech-01-hd的效果。
而这是,Speech-02-hd的效果。
我相信,一定能非常轻松的感受到,情绪的差距。
说说咋用。
进入Minimax的Audio官网后,点击左边的Voices。
免费用户,可以免费克隆3个声音。
我是开了5刀的会员,所以可以创建10个。
点进去以后,直接上传你的素材,然后正常命名,选素材的主语言就行,超级简单。
上传的语音最少上传10s的音频片段就可以克隆了,不过这个样本其实不是特别够,所以我一般推荐音频素材最好在30s左右,当然你也可以更长,不过一般不需要超过5分钟。
然后只需要十几秒,一个新鲜的声音模型,就克隆好了。
后续使用的时候,直接在右边的声音选择界面里面找到自己的tab,正常使用就行。
一代的时候,这个声音模型,只支持12种语言,分别是:
中文、粤语、英语、韩语、日语、印尼语、西语、葡语、法语、意大利语、俄语、德语。
但是这一次的2代,支持了32种语言。
而且在混合语种上,有更好的效果了。
比如我之前看到一个非常有意思的挑战。
文字是这样的:
“皆さん,我在网络上面看到有someone把三个国家的 language 混在一起去 speak 。我看到之后 be like これは我じゃないか,私も try one try です”。
非常离谱。
我克隆了我自己的声音,然后去试着念了一下。
这是上一代Speech-01-hd:
我保证,你听完以后也不知道它到底念了个啥,我就听到一个Speak。。。
再来听听2代的。
虽然日文那还有一点奇怪,但是,已经是能完整的区分出来念的明明白白的了好吧,这已经是,史诗级进步了。
我又搞了一个更复杂的,小皇四郎。
文本是这样的:
“妈的,最烦装逼的人了。刚回国,问他论文咋样,他说:
“我要 restructure 一下 framework。”
我翻了个白眼,结果他又来一句:
“Ah non, pas de sucre, merci~”
然后切日语:「これはマジでイラっとするわ〜」
再来西语:“¡Qué pesado! Pero suena perfecto.”
最后还补一句英语:“Seriously. Stop pretending you’re special.”
我都想说:你到底是人,还是 AI?
哦,他是 MiniMax Speech two,新模型。”
真的,实在太好玩了。
虽然最后的中文,念的还是冒出了翻译腔,但是进步已经巨大了。
而且,还有一个超级屌的点是,他们在讲故事的场景中,如果你只用一个声音的话,在一些不同角色那里,它甚至会有不同的音调变化和情绪变化。
这是我的一份故事文稿。
我直接让Speech-02-hd一键直出,然后我自己稍微剪了下,加了点音效,大家可以听一听这个情绪,还有角色的变化。
文稿中标黄的那几句,大家应该能明显的听出来,是刻意压低了音调,改了情绪。这可不是我处理的,是MiniMax直出的,这就非常牛逼了。
除了C端产品之外,我看了一眼API,发现,他们已经第一时间把Speech-02给支持了。
甚至,MCP也弄好了。
现在,你可以在任何Agent产品里,也可以接入这个逼真到爆炸的语音模型了。
我们也可以自豪的说一声。
之前,中文AI语音,我们做到了世界最强,但是现在,可以把中文去掉了,整体上,我们都已经做到了世界最强。
这是一个被所有人低估的战场。
大家都在盯着谁做出第一个像人一样思考的Agent,却没看到,那些AI说话的声音,其实早已变得越来越跟真人无异。
而且,这一次,还是我们做出来的。
在12月份的那边MiniMax AI音频的文章中,我在最后写道:
“也许,这就是属于中文世界的AI时代的序章。而这一切,才刚刚开始。”
然后就是波浪壮阔的春节。
随后的故事,大家也都知道了。
一语成箴。
现在的AI世界,再也不是英语的独角戏了。
我们从配角,走向主角。
然后不仅仅止步于起。
像MiniMax,也用AI,给世界,尽可能的带来语言平权。
那些过去没被在意的语言,过去只能在家族里、在小巷里、在庙宇里才能听到的声音,现在终于有机会,能被世界听见了。
AI没有带来统治。
反而是把人类的多样性。
放进了未来。