PC6下载站

分类分类

给我一张脸,视频背景随你换,林黛玉都被清华理工男玩废了|免费开放

关注+2024-09-11作者:清晨

AI视频中任意主体保持一致!就在刚刚,人人都可轻松做到了。

image.png

而且只需一张图片,就能实现。

——上面的每一个马斯克视频,都来自同一张照片。

想玩的话,只需要用上清华系AI视频玩家生数科技旗下Vidu最新功能,主体参照(Subject Consistency)。

该功能能够实现对任意主体的一致性生成,让视频生成更加稳定,也更加可控。

qqQ/640?wx_fmt=png&from=appmsg" data-type="png" data-w="1080" data-original-="" data-index="3" src="http://pic.chinaz.com/2024/0911/2024091114001222630.jpg" _width="677px" __sec_open_place_holder__="true" alt="图片" data-fail="0" style="margin: 0px auto; padding: 0px; box-sizing: border-box; outline: 0px; border: 1px solid rgb(238, 238, 238); --tw-shadow: 0 0 #0000; --tw-ring-inset: var(--tw-empty, ); --tw-ring-offset-width: 0px; --tw-ring-offset-color: #fff; --tw-ring-color: rgba(41, 110, 228, 0.5); --tw-ring-offset-shadow: 0 0 #0000; --tw-ring-shadow: 0 0 #0000; max-width: 700px; background: url("../img/bglogo2.svg") center center no-repeat rgb(247, 248, 249); box-shadow: rgba(27, 95, 160, 0.1) 0px 1px 3px; display: inline-block;"/>

“现在生成AI视频内容,想要做到‘言出法随’其实还很难,不确定性让视频内容对运镜、光效等的精细控制还是得不断抽卡。”生数科技CEO唐家渝表示,“角色一致性只能让人脸保持一致,而主体参照让主体整体造型都能保持一致,给了更大的创作空间。”

这是继今年7月,生数Vidu面向全球用户上线文生视频与图生视频能力(单视频最长生成8s)后的再次更新。

这次功能上新依然非常友好:

面向用户免费开放,注册即可体验。

仅需一张图片实现主体可控

先来看看Vidu是怎么定义这个新功能的。

emoji", "Segoe UI Emoji", "Segoe UI Symbol", "Noto Color Emoji"; font-size: 16px; text-wrap: wrap;">

主体参照:允许用户上传任意主体的一张图片,然后由Vidu够锁定该主体形象,通过描述词任意切换场景,输出主体一致的视频。

划重点:任意主体

也就是说,无论是人还是动物,无论是真人还是动漫形象or虚构主体,无论是家具还是商品,都能通过这个功能在视频生成中实现一致性和可控性。

目前,所有的视频大模型中,仅有Vidu率先支持这种玩法。

不必光说不练,我们来看看真实效果。

人物主体

首先来看看以人物为主体。

上传一张87版《红楼梦》林妹妹的定妆照:

以画面中林妹妹为主体,利用主体参照功能,生成两条视频。

突然,林妹妹上台演讲了:

VR0Q6EIvACx1DdrqIDZXYGn1VS4wmwPryNtAcIpw/640?wx_FMt=gif&from=appmsg" data-type="gif" data-w="1079" data-original-="" data-index="6" src="http://pic.chinaz.com/2024/0911/2024091114001222631.jpg" _width="677px" __sec_open_place_holder__="true" data-order="2" alt="图片" data-fail="0" style="margin: 0px auto; padding: 0px; box-sizing: border-box; outline: 0px; border: 1px solid rgb(238, 238, 238); --tw-shadow: 0 0 #0000; --tw-ring-inset: var(--tw-empty, ); --tw-ring-offset-width: 0px; --tw-ring-offset-color: #fff; --tw-ring-color: rgba(41, 110, 228, 0.5); --tw-ring-offset-shadow: 0 0 #0000; --tw-ring-shadow: 0 0 #0000; max-width: 700px; background: url("../img/bglogo2.svg") center center no-repeat rgb(247, 248, 249); box-shadow: rgba(27, 95, 160, 0.1) 0px 1px 3px; display: inline-block;"/>

又一眨眼,妹妹已经坐在星爸爸喝咖啡了:

图片

当然啦,真人可以作为生成视频的主体参照,虚拟角色/动漫人物同样可以。

比如输入一张漫画女孩:

生成视频效果是酱紫的:

图片

这里附上一些官方给的小tips:

动物主体

谁能不爱可爱狗狗!

图片

把这张照片丢给Vidu,就能实现狗狗走草地上,一步一步靠近你。

镜头后拉和主体运动幅度表现都还不错。

图片

商品主体

当把商品作为需要参照的主体时,在生成的视频中,商品外观和细节能在不同于图片的场景中保持一致。

就像下面这样:

图片

沙发所在的场景,说变就变。

上面还能睡一个盖了毯子的小女孩,遮挡住沙发原有部分。

图片

需要注意的是,当前版本仅支持单一主体的可控。

如果上传的图片有多个人物/物体,需要框选出单一主体进行生成。

Be Like:

图片

不再“两步走”了

无论是制作短视频、动画作品还是广告片,“主体一致、场景一致、风格一致”都是共同的追求。

因此,AI视频生成内容想要有叙事效果,就需要不断往三个一致方面尽力靠拢。

尤其是就现实情况而言,实际的视频创作,内容往往围绕特定的对象展开——这往往也是视频生成内容最容易变形、崩坏的一点,尤其在涉及复杂动作和交互的情况下。

挠头,脑阔痛。

业界首先想到的办法是先AI生图、再图生视频。

说人话,就是用Midjourney、SD什么的,生成分镜镜头画面,让每张图里的主体保持一致,然后再进行图生视频,最后把每个视频片段拼接剪辑。

但一听就发现了,这样搞,无论是保持AI画图的一致性,还是后期拼拼剪剪,工作量都很大。

生数Vidu“主体参照”跟这个思路的不一样之处,就是不再两步走了。

而是通过“上传主体图+输入场景描述词”的方式,直接生成视频素材。

最后,我们来厘清以及区分三个概念:

图生视频基本是现在AI视频生成的基操了。

它把输入的图片作为视频首帧,然后基于首帧画面的连续生成。

Bug是无法直接输出目标场景,限制了视频内容的多样性和场景的自由度。

角色一致性,主要集中在人物形象上起效果。

它能保证人物面部特征在动态视频中保持一致,但一般来说“一致性”只顾脸,不顾整体形象。

主体参照,面向任意主体。

同时在面向人物主体时,既可选择保持面部一致,也可选择保持人物整体形象的高度一致。

最后附上生数科技视频试玩链接,感兴趣的朋友可趁排队人不多,赶紧冲一波!

毕竟,免费的就是香,对吧(doge)。

体验直通车:

www.vidu.studio


展开全部

相关文章

更多+相同厂商

热门推荐

  • 最新排行
  • 最热排行
  • 评分最高
排行榜

    点击查看更多

      点击查看更多

        点击查看更多

        说两句网友评论

          我要评论...
          取消