动作捕捉数据应用到动画流程详解
知乎:王少笛
很多读者对动作捕捉数据如何变成模型动画有很深的疑惑,今天笔者将给大家分享一下动捕是怎么应用于动画制作的工作流
在制作动画之间,需要先制作一个角色,原画师会提前设计出角色的2D原画
有了角色原画之后,就需要建模师将角色模型在三维软件例如Maya或者3DS MAX制作成3D模型(图片均来源于网络所以无法做到对应,大概能参考一下就行)
建完模型之后,需要绑定师去做骨骼绑定(很多公司其实建模师和绑定师是同一个人),骨骼的绑定直接影响到模型动起来之后的效果,这个流程除了创建骨骼之外,还有一系列处理蒙皮和权重等问题。
骨骼是一个模型能够动起来的关键,会严重影响到动捕数据映射的质量。
到这,一个完整的模型建模就完成了,接下来就是动作捕捉接入的流程了。
每家公司的动作捕捉系统,不论是光学还是惯性,都会有一套自己的骨骼模板,骨骼模板就是,动捕系统可以还原的骨骼列表,只有列表中的骨骼才是动作捕捉过程中可以映射数据过来的。
比如市面上大多数惯性动作捕捉只有一节脊柱,少数高端产品有两节,这就导致了,如果你想捕捉一段妖娆的舞蹈,捕捉数据跟真人数据有细微的差别,模型的背部看起来比较僵硬。因为人的脊柱是可以灵活地呈现一定弯曲姿态的(仅限部分舞蹈演员或者体操演员等),这类动作映射起来不是那么精确。
而光学的脊柱通常带有至少两节骨骼,可以较好地还原演员身体姿态,但是光学的价格和惯性的价格差距,只能靠自己去体会了,建议寻找适合的方案进行捕捉。
到了这一步,动捕棚安排动捕演员开始为动画数据捕捉动作素材,有的是公司自己找的特技演员(类似电影中的武替)
动作素材是没有办法直接拿来使用的,产出的素材需要先在动捕软件中做一轮粗修,这一步的工作可以大大降低后期动画师的工作量
由于演员的身体信息和角色的身体信息不可能完全一致(身高、臂长等),所以在动捕数据粗修的同时,我们需要对提供的角色和动捕数据做重定向(匹配骨骼)
最简单的重定向方式,就是直接使用三维软件自带的HumanIK系统,Autodesk的Maya和MotionBuilder都内置了这个系统,可以在建模与动画制作过程中快速切换使用。
大多数动捕厂商都会提供MotionBuilder的插件系统,只要将模型做好HumanIK的匹配,你可以快速在三维软件生成一个和人体姿态一模一样的骨骼模型。设置好动作和角色对应关系,动捕演员的动作就能直接映射到模型上了(此处不展开赘述,详细操作可以移步Pro的MotionBuilder教程作为参考)
完成重定向之后,就可以把动作捕捉数据烘焙到模型上去了,此时的模型就拥有了各种各样的动作。如果需要实时驱动的话,只要完成重定向,然后动捕演员通过动捕软件将数据流实时传输到建模软件或者游戏引擎等第三方工具中就可以了,厂商都会提供对应的插件。
最后一步,动画师会在MotionBuilder里面对动画进行精修,解决各种各样的细节和表现问题,也就是大家看到的最终效果的动画了。
再跟大家聊五毛钱的题外话,当前动捕和面部结合的问题,很多小伙伴经常关心,A公司的动作捕捉系统和B公司的面捕捕捉系统,能不能结合,这里强调一下(敲黑板)
动捕和面捕的数据完全是两套数据流,这两套数据流是完全不互相影响的,除了部分面捕带脖子的旋转,但是这个目前都可以在软件里面关掉这个功能,所以,动捕和面捕的合成关键是建模,面捕捕捉是需要对模型的脸部进行数据处理的,以苹果的ARKit为例,需要提前在模型面捕刷好五十多个BS控制器。而更好的面捕效果则需要通过AI技术提前对模型进行处理
更多内容点击阅读更多