Apple Gla ARKit未来技术之-IKnema
如果Apple Glass有这个产品,其中有个技术值得展开聊一聊。
去年Apple收购的英国数字人技术服务商IKnema为何方神圣?就我的了解,他们的看家本领主要有两个:
一个是面向动作捕捉的中间件IKnema LiveAction,它是动作捕捉设备厂商(Optitrack\VCON\XSENS)和第三方3D软件(Maya\MB\Unreal Engine)的中间转换桥梁,解决了如何将动作捕捉的数据在3D软件和引擎中正确的驱动你想要的任意3D角色。可能有点绕哈,我来打个比方,A是产生捕捉数据真实的人,C是要驱动的目标3D虚拟人,A和C都有高矮胖瘦之分,也就是存在不确定关系,所以A与C之间需要一个标准化的中间件B。当然,他的作用还不仅仅如此,咱们暂且不表。
一个是面向游戏、VR、AR的IKnema RunTime for Engine,其核心点就是如何用反向运动学(Inverse kinematics)让3D角色与游戏中的环境产生碰撞交互后还能按照真实人类的自我姿态调节达到重心平衡。
这两个工具虽然面向的行业不同,但解决的问题核心点都是一致的。对于有一定3D游戏开发的吃瓜群众来说,这些技术看起来好像挺简单的,主流的引擎和工具或多或少的解决了部分问题怎么就被APPLE看上了呢?如果是这么想那你就「图样图森破」了,APPLE那群负责收购的人一定不是吃素的。这里面涉及到一系列复杂的数学公式、空间转化、计算求解、CPU指令集优化等等(不要问我怎么知道的,头发想少白几根),充分展示了数学公式之美在这里我就不深入讲了,有时间再单独开一篇我们《人类为了打造虚拟世界在技术实现上都干了些什么?》
好了,前面铺垫了一下技术要点后现在来回到楼主的核心问题,我们管中窥豹的解刨一下APPLE正在打造的未来产品轮廓是怎样的。先来看看下面这张表:
从上面的APPLE收购清单中可以看到,从芯片、空间感知、面部识别等这些收购的技术,从用户感知的角度都已经陆续整合到每一代iPhone推出的新功能App,从开发的角度,Apple陆续将硬件能力整合到了ARKit里,APPLE目的是在打造一个未来的虚拟和实体交互的世界。不知道有心的吃瓜群众有没有关注今年开发者大会中的ARKit 3.0 ,其实这是一次大跨越。主打标准化的USDA是从皮克斯拿过奥斯卡大奖的USD演变而来,能识别环境光照对物体产生实时的光照、阴影,真人在虚拟化物件(场景、道具)中实时穿插,这是是非常难的,这也体现了APPLE单点突破的技术整合能力。感兴趣的朋友请用iPhone的Safari浏览器可以试试这个地址:www.apple.com/mac-pro/ 然后翻到并点击:See Mac Pro in AR。当然与其说是一个格式,倒不如说未来会发展成一个标准的AR实时渲染引擎框架,这也是APPLE通过收购来筛选适合的技术方案减少研发迭代周期。从这点来看,主攻AR虚拟交互Magic Leap的最大竞争对手不是微软的HoloLens和Oculus,而是出货量巨大且整合能力(不一定是技术最顶级)超强的Apple。在移动手机市场出货量进入红海开始,敏锐的APPLE早已从注重纯市场销售到深耕存量用户提供丰富内容的方向调整,毕竟这个羊圈很大很封闭且羊很多,估计Tim Cook大爷用一千零一夜都数不完。
你看芯片、空间感知、面部识别、ARKit都各司其职,加上刚刚收编的IKnema在虚拟化角色驱动技术的支持,至此Apple在这一板块的最后一个拼图总算完成了。这些组合在一起扩充了ARKit在虚拟化角色的交付能力,想象一下这样的场景,当你把手机镜头指向沙发和草地,你能看到虚拟3D人物能很自然的与现实物件进行识别并准确的坐在上面与你通过语音识别和表情识别进行互动、交谈、,这就需要用到IKnema的技术能力。
至于明年APPLE能交出什么样的产品大家各自想象吧,看到很多知乎帖子讨论比较激烈APPLE到底会出什么设备,我认为这些都只是结果。我们要看到的是本质,不是吗?
最后来说说对行业的影响,首当其冲的是垂直行业的市场空白亟待填补。因为IKnema官网已经停止了license的销售,这对基于很多光学、惯性引擎捕捉、游戏开发的应用场景和厂商来说是灾难。开发一款替代产品需要很强的行业能见度、开发、市场转化综合能力。我想也许这也是身在腐国开发团队IKnema的卖身原因之一。
最大的问题在安卓阵营的手机厂商,暂时拿不出能与ARKit抗衡的技术产品,这从移动平台的发展史Apple的引领来看这也是正常的。虽然Goole在综合技术储备上遥遥领先,但是,市场的竞争早已经不是单维的了,碎片化的安卓阵营具备与未来ARKit抗衡的技术在哪里?