如何成为虚拟主播vtuber?
哈哈 看到问题就戳进来了~ 答主所提到的动作捕捉技术 是用于3D虚拟偶像 动作素材产出的一套装备。 那么,就让我们谈谈3D虚拟偶像如何出道? --------------------------------------------------------------------------- 今年,我们也打造了一款 3D虚拟偶像----Virtual格格,3月31日在B站首次放送 先发一个代表作:https://www.bilibili.com/video/av23895466 其实,做3D虚拟主播 无外乎以下几点: 一个3D模型,一个中之人,一套支持3D虚拟偶像做直播动画的技术。 那么它们是如何结合的呢? 每一个虚拟偶像的背后都有一位表演者负责做动作,一位CV负责配音。当然他们可以是同一个人。 1:动作表演+表情匹配 需要表演者穿上动作捕捉设备,然后,每做一个动作,动捕后台都会记录下表演者的动作数据,表演完成,动作数据将会保存在一个文件里,我们将这些动作数据,同手动K好的表情数据,通过unity合成输出序列,此时的动作就携带有表情了。最后,导出绿幕版的动作视频文件。这些动作,就是我们在观看虚拟偶像节目中,虚拟主播表演的那些动作。 2:配音 配音文件的获取,可以单独在录音棚看着动作素材配音,也可以在表演过程中,带上耳麦边做动作边将声音传输到录音设备中保存。这个音频文件就是虚拟主播的配音。 好啦~现在我们有绿幕的动作视频文件我,也有配音文件。通过AE或者Pr,将以上素材剪辑加工,就是我们看到的虚拟偶像日常视频啦~ -------------------------- 同理,虚拟偶像做直播,只用上半身,主体为面部表情,按传统的方法,表情需要手动K帧。 不过以上,提及到技术层面,并非所有人都能一时学会这些专业的美术工具。为了方便小白用户更好的解决这些技术问题,我们团队和其他做虚拟主播的小伙伴沟通后,研发一款方便小白用户轻松做3D虚拟主播的工具----Live3D 通过傻瓜式操作,简单解决上述说的各种复杂技术问题。 1:首先提到模型 (1)Live3D有自己的云端3D模型库,里面的模型均可免费使用 (2)支持自定义捏人,你可以通过捏人功能(捏脸,换装,捏身体)获得一个新的模型。 (2)Live3D支持导入外部3D模型,目前支持FBX,PMX,VRM格式。你可以将你的模型导入,开启虚拟主播之路。 2:其次,提到面部表情,以往的方法,上述提到用“手动K帧”的方式,难度大,耗时长,同时和个人能力有很强的挂钩。同样面部表情需要和动作结合,也需要通过unity 导出合成序列 针对面部表情:Live3D的解决方案--“面部捕捉” 面部捕捉实现的方式 (1)通过电脑摄像头捕捉。 (2)通过iphoneX 及以上版本的手机摄像头捕捉。 具体过程:打开Live3D的面部捕捉按钮---->将摄像头对准自己的面部----->你做什么表情,对应Live3D画面中人物做什么表情(包括眨眼,对口型,摇头) PS:对口型的准确度可以达到你说的每个字都能准确对上口型。 3:动作捕捉数据 需要过unity 需要对unity 有一定的熟悉度 才可以最终将动作数据,表情数据 转化为可视化视频。 针对动作数据 Live3D的解决方案是:预制动作库+动作捕捉接口+导入外部动作 (1)预制动作库 有海量云端动作数据,通过按下动作对于电脑键盘上的某个键(设置动作对于键盘某个键,通过在Live3D上拖动动作到Live3D上的小键盘),人物就会做出相应的动作。 (2)动捕接口 目前支持诺亦腾一套动捕设备及诺亦腾Hi5手套,捕捉手部细节动作。使用过程:链接动捕后,在Live3D上开启Noitom动捕 Noitom Hi5手套 按钮 。可以在Live3D上看见你用动捕做出的动作,在做动作前 点击录屏,选择绿幕背景,即可录制刚才你做的动作视频,直接出来就是绿幕视频文件,不再像过去需要过unity处理。 (3)导入外部动作,除了支持导入外部模型,我们还支持导入外部动作,你可以把你喜欢的舞蹈动作,日常生活动作,动捕动作导入到Live3D里,运用在直播和动画功能上。 最后,介绍Live3D两个核心功能 直播+小动画 (1)用Live3D做直播 (2)用Live3D做小动画 好啦~ 今天的介绍就到这里 对Live3D感兴趣的同学 欢迎到QQ群:414669952 一起交流(*^▽^*) Live3D下载链接:Live3D on Steam 或者在steam上搜索Live3D Live3D 是免费使用 ,目前,泠鸢yousa同学每周直播已经开始用Live3D啦~ 欢迎大家前去体验*^_^*