Faceunity:用智能手机就能实现的面部表情捕捉技术
用表情捕捉技术驱动虚拟角色已经成为动画、影视制作领域的大趋势。而自从 苹果上一年收购 Faceshift后,表情捕捉技术在 VR/AR 领域的运用前景也备受关注。尽管如此,目前主流的表情捕捉方案都需要额外的硬件设备以及较高的成本,这也让其始终无法在消费级市场普及开来。
Faceunity 想做的就是让 普通消费者也能够以简单的方式实现表情捕捉 ,并用这些表情数据去驱动预先设计好的虚拟角色模型或者设计人脸动画。
Faceunity 目前已经推出 2 款产品,一款是用于移动端平台(IOS、安卓)表情捕捉的 SDK 开发包 ;另一款则是为 MAYA/3DMAX 等 3D 制作工具开发的 人脸表情动作制作插件 。不过与 Faceshift 等主流厂商的做法不一样,Faceunity 的方案没有用到深度传感器,只需要一个简单的 RGB 摄像头就能精确地捕捉到人物的表情数据(即使用手机前置摄像头也可以)。但 识别精度能够达到 Faceshift 的同等级别 ,甚至可能更好。
公司的 COO 吴鹏解释道,最初他们也尝试过 Faceshift 的技术,但后来发现深度摄像头在人脸识别上的作用其实不大。一方面是因为表情在图像上的变化有许多 RGB 信息,比如嘴唇是红的,眼睛是黑白的等等;另一方面原因是深度摄像头的分辨率一般不高,在弱光照环境下的表现不够稳定。这时候 RGB 摄像头的优势就体现出来了。
另外,表情捕捉一般采用的方法是根据一个标准的人脸模型去提取出被摄对象的脸部特征点数据,再通过这些特征点的位置,输出被摄对象的三维旋转、平移,表情值数据。而 Faceunity 的做法则跳过了提取特征点的过程,直接输出脸部的三维旋转、平移,表情值等数据,再通过这些数据逆计算出脸部特征点信息,最后再用传统的方式去修正特征点位置数据。
吴鹏表示,虽然他们的运算步骤比传统方式要多,但得益于他们在算法上的优势,整个过程的计算代价与传统方式单纯抽取特征点相当。他表示,除了识别精确度外, 速度也是他们一个很大的优势。
虽然现在 Faceunity 主要做的还是移动端 SDK 以及桌面级 3D 开发插件,但吴鹏向粹客网透露,他们也很看重表情捕捉技术在 VR/AR 领域未来的运用前景,特别是未来 VR 社交中人与人之间的情感表达很大程度上要依赖表情来实现,所以他们也正在做基于 VR 头显的表情捕捉的相关技术研究。未来也会加大这方面的技术和资源投入。
在商业方面,Faceunity 已经与国内一家做视频的公司建立了技术授权关系,目前正在和更多直播、视频、游戏等公司商谈合作。未来除了在 B 端继续发力外,还可能会做一些 C 端的尝试,包括做一些基于表情捕捉技术的游戏或者应用等。
Faceunity 成立于今年 3 月份,团队成员大多毕业于清华大学和浙江大学,核心成员曾任职于微软公司。目前公司已经完成了一轮 Pre-A 融资,但 Faceunity 没有透露投资方的具体信息。
*本文由 粹客网 原创,如需转载,请标明出处和原文链接。
*有 VR/AR 创业项目想被报道?发邮件到这里 :tougao@cheekr.com。