作者 | 阿虎
编辑 | 张洁
无人在意的角落,Runway上线了视频界的“Kontext模型”Aleph。
简单来说,文生图领域的Kontext模型无需复杂的提示词,就能实现多种编辑任务,比如风格转换、背景替换、角色修改等等。
Runway将这一核心能力成功复刻到了视频生成领域。更重要的是,在提供成熟、便捷产品级的视频编辑能力方面,Runway处于近乎独占的市场地位。
据我们不完全统计,在AI视频生成领域,具备视频到视频(Video To Video)编辑能力的公司相对稀缺。放眼全球,也仅有国内的通义万相和海外的Runway。这和图生视频、文生视频技术相比,显得尤为小众。
虽然阿里通义万相此前开源的VACE模型也支持视频编辑能力,但其满血版对本地硬件配置要求较高,一定程度上限制了普通用户的使用门槛。
Runway在这一核心能力上的技术壁垒,也成为其吸引投资的重要筹码。上周,据The Information报道,Runway正与投资者洽谈新一轮融资,目标金额约为5亿美元。此轮融资前估值预计至少为50亿美元,较一年前上一轮融资时的估值涨幅高达约67%。
Aleph发布后,迅速在AI创作圈引起热议。X上的网友盛赞视频中的人物一致性、角色替换相当惊艳,直言“传统视觉特效不存在了”。
博主“Linus Ekenstam”利用Aleph功能制作了《低俗小说》的主角跨时空共舞视频,在X上获得了超34万播放。
背后的制作流程也很简单,他先将视频拆分成不同的小片段,通过提示词让AI进行场景、镜头角度、背景的切换。
就算你没有专业影视制作背景和能力,也能用AI做出以前做不到的视觉效果。比如,AI生成纽约时代广场的延时摄影片段:
毫无手绘基础的网友也可以将二次元角色放置在不同的季节中:
甚至可以用Runway Aleph对上世纪90年代的视频片段进行重制,提升画面质量:
自定义的风终究还是吹到了AI视频。创作者们能够更自由地对爆款视频内容进行玩梗、编辑和二创。
但与此同时,Reddit网友开了讨论区吐槽“Aleph并没有想象中稳定,Runway太会营销”。此前,Runway上线了Video to Video的视频转绘功能,就有部分网友认为Aleph像上一版的“功能升级”。
Reddit截图
Aleph生成效果到底如何?新功能究竟能创作出什么样的新内容?我们进行了一番详细探究,发现原来这一功能可以这么玩。
Aleph视频刷屏X,“瞬息全宇宙”被玩疯了
Aleph正式发布两周以来,TikTok、X、小红书等主流内容平台上,已经涌现了不少其生成的热门创作内容。
其中,最受欢迎的的玩法当属对经典电影进行“瞬息全宇宙”风格的二创——通过AI快速切换角色造型、场景元素,来达到复刻影片标志性内容的效果。
要知道,Runway的早期知名度很大程度上便源于其为奥斯卡获奖影片《瞬息全宇宙》提供技术支持。如今借助Aleph,普通玩家也能轻松“手搓”类似风格的电影特效。
Runway联合创始人兼CEO Cristobal Valenzuela于8月2日发布的典型案例,就是用Runway Aleph实现逐帧“穿越”宇宙:
还记得之前流行的爆款视频吗?Viggle生成的一条将小丑“变身”说唱歌手Lil Yachty的画面一度刷屏。
X博主“Blaine Brown”将这一创意进行发挥,运用Aleph技术让这位“说唱小丑”出现在海边、落日余晖等不同场景,实现“随时随地开唱”的效果。
类似的创意风潮也吹到了国内。8月8日,小红书博主“别骂了别骂了”制作了一条音乐MV,别出心裁地将视频中的主角都进行了“动物塑”处理。该视频在小红书上获赞超2500。
纵观X平台上流行的Aleph爆款视频,流畅酷炫的画面切换是主要亮点,这种丝滑的转场效果本身就极具吸引力,也给视频带来了更多流量。
有些博主不满足于简单的Aleph生成效果,使用了更高阶专业的玩法。他们将Aleph和其他创作应用协同使用,颇有将线稿一键变实景的生成效果。
例如,博主“imagecreation”就结合Aleph和3D建模软件Blender,将模型一键放置于电影画面中,再利用AI进行深度处理和优化,提升了成片的真实感和质感。
无独有偶,还有博主指出,Midjourney加上Aleph,产出的视频效果已经Next Level。
从呈现效果来看,当前优质的Aleph视频,很大程度上得益于和其他创作工具(如Blender、Veo 3)协同创作。这种多工具集成的模式,不仅拓展了创意边界,也让最终的画面视觉呈现效果变得高度可控且精细。
正因为这种AI视频的创作潜力,Aleph模型一经上线,Runway的C端使用也有了一定的增长。在AI新榜发布的AI产品榜中,Runway发布Aleph模型后,海外榜排名上升了5位,周访问量同比增长了20%。
实测Aleph:每秒视频7.5元,打造“老头宇宙”?
我们也对Aleph进行了实测,发现这些高端的特效大片,往往只要最简单的语句。
在Runway官网Chat Mode(对话模式)下,上传视频并输入提示词,默认调用的就是Aleph模型,直观呈现了“简单指令驱动复杂创作”的能力。
“AI新榜”曾盘点过视频转绘的不同玩法。彼时,创作者面临的主要困境是,修改一段视频往往需要依靠工具预设的提示词,不支持文字输入和修改,所以用户没有办法“用嘴”指挥AI修改不同的细节。
例如,想要环境灯光变成暖光、或是让人物瞬间苍老十岁,如果没有预设样式,就很难仅凭文字描述的形式实现。这种技术局限很大程度上限制了创意的发挥。
相比之下,Aleph的可玩性大大提高了,用户可以通过自然语言的方式直接修改视频。
我们在对话模式下尝试了官方介绍的Aleph核心功能。比如,改变主角的外貌,将成年角色重新塑造成童年角色、老年角色,甚至是动物角色。
比如,我把这个直播片段变成了AI宝宝播客的形式。
make the woman young, like a baby
将猫猫带货广告变成狗狗的:
change the cat to a dog
令人惊喜的是,Aleph都成功实现了。如果再搭配一些有梗且适合二创的视频素材,一个“低脂小视频”就能轻松诞生了。
同样,我们还可以改变环境或者场景,无论是涉及飘雪、水池等具体场景的元素,还是调整黄昏、黎明等时间信息,都可以借助提示词实现。
添加黄昏时分的光影效果
尽管Aleph在画面整体风格上保持了一致性,但一旦涉及到多个提示词,比如“角色替换成老年,并且脚下有有积水”时,Aleph无法保证在多个指令后,画面维持稳定性。
使用两个提示指令时,人脸开始出现变形
实测下来,相比替换对象或主题功能,在调整光照、阴影以及季节天气变化的功能上,Aleph的生成效果会更稳定一些。
另外,Aleph目前只抓取上传视频的前5秒片段进行生成。因此,如果要做强叙事、多人物的视频整活,那么想要兼得人物一致性和稳定性,就是一件有难度的事情了。
比如,《美国精神病人》的名场面,被我拆成了不同的视频片段。其中,生成的动作倒是挺流畅的,遵循指令也没有什么问题,但这人物形象,仿佛一部电影中切换了好几位“精神病人”,俨然是一个“老头宇宙”😅。
这样的生成效果,时长为短短25秒的视频,究竟花了我多少钱?这笔账不算不知道,一算我真破防了。
以上述电影名场面的25秒视频为例,我总共生成了15个5秒片段,最终可用片段数量为5个,累计消耗积分1125。
按目前Runway的积分收费制来看,1积分价值约0.2元。也就是说,制作一个25秒的AI视频二创,保守估算成本至少190元(平均一秒七块五)。如果运气不好,再加上“抽卡”的概率因素,成本还可能更高。
这性价比也被不少网友诟病,“贵”成为了Runway视频评论区最高频的字眼。据投资研究平台Sacra官方数据显示,尽管2024年Runway官网访问量不到可灵的1/2,但ARR(年化经常性收入)约9000万美元(折合人民币7亿),是可灵的6倍。
更关键的是,即使定价偏高,专业视频团队目前很难完全脱离对Runway的习惯性使用,就像文生图领域的Midjourney一样,他们的功能效果、特定风格对创作者来说有一定的依赖性。
这种领先的产品能力,直接转化为Runway的商业价值和用户粘性。另一方面,相比一个动辄上万元的传统视效镜头来说,AI生成的特效镜头确实能实现成本骤减。
对于创作者而言,技术的价值最终在于落地应用。只有当此类模型能力被深度集成到易用的产品中,让用户通过简单的方式(例如“用嘴”),就能实现视频“改头换面”的效果,才能拓展个人的创作空间。
而这一技术的应用前景也远不止于此。如果说生成视频是AI视频的第一次突破,能够从无到有凭空创造内容,那么视频编辑能力就像解决了创意落地的“最后一公里”问题。
问题是,为了体验这种突破性的创作自由和效率提升,你愿意为制作AI视频投入多少真金白银?