苹果向开发者展示ARKit 6工具包的改进
本月早些时候,在苹果的年度开发者大会WWDC 2022上,该公司首次向开发者展示了苹果ARKit 6工具包的改进,用于在iOS设备上构建AR应用程序。
尽管苹果尚未透露(甚至确认)AR头显的存在,但该公司对AR绝对认真的最明显迹象是ARKit,它是用于在iOS设备上构建AR应用程序的开发人员工具包,苹果自2017年以来一直在推进该工具包。
在WWDC 2022上,苹果发布了最新版本的ARKit 6,它对核心功能进行了改进,因此开发人员可以为iPhone和iPad(最终可能还包括头显)构建更好的AR应用程序。
在WWDC 2022的“探索ARKit 6”开发者会议期间,苹果ARKit工程师Christian Lipski概述了接下来会发生什么。
1、更好的动作捕捉
ARKit包含一个MotionCapture功能,可以跟踪视频帧中的人,为开发人员提供一个“骨架”,可以估计人的头部和四肢的位置。这允许开发人员创建应用程序,将AR元素叠加到人身上,或者移动它们。
在ARKit 6中,Lipski表示该功能正在获得“一整套更新”,包括改进了对2D骨骼的跟踪,现在可以估计对象左右耳的位置(这肯定对脸部滤镜有用,用AR试戴眼镜以及涉及头部的类似功能肯定很有用)。
至于3D骨架,它提供了深度的姿势估计,苹果承诺在用户被相机边缘或其他物体遮挡时,以更少的抖动、更高的时间一致性和更高的鲁棒性进行更好的跟踪(尽管其中一些增强功能是仅适用于iPhone 12及更高版本)。
2、相机访问改进
ARKit 6让开发人员可以更好地控制设备的摄像头,同时将其与AR应用程序一起用于跟踪。
开发人员现在可以在iPhone 11和更高版本以及最新的iPad Pro (M1) 上以30FPS的速度实时访问高达4K的帧。开发人员仍可以使用先前的模式,该模式使用较低的分辨率但较高的帧率 (60FPS)。Lipski表示开发人员应该仔细考虑使用哪种模式。4K模式可能更适合专注于预览或录制视频的应用程序,但较低分辨率的60FPS模式可能更适合受益于响应性的应用程序。
与AR应用程序中更高的视频分辨率类似,即使AR应用程序正在使用相机,开发人员现在也可以拍摄全分辨率照片。这意味着他们可以提取12MP图像以保存或在其他地方使用。这对于将照片作为体验的一部分的AR应用程序来说可能非常有用。例如,Lipski指出,一个应用程序可以引导用户拍摄物体的照片,然后通过摄影测量将其转换为3D模型。
ARKit 6还让开发人员在AR应用程序使用相机时可以更好地控制相机。开发人员可以根据需要调整白平衡、亮度和焦点等内容,并且可以从每个传入帧中读取EXIF数据。
3、更多定位锚
ARKit包括LocationAnchors,它可以为选定城市的AR提供街道级跟踪。苹果正在将此功能扩展到更多城市,现在包括加拿大的温哥华、多伦多和蒙特利尔,日本的福冈、广岛、大阪、京都、名古屋、横滨和东京,以及新加坡。
今年晚些时候,该功能将进一步扩展到新西兰奥克兰、以色列特拉维夫-雅法和法国巴黎。
4、平面锚
Plane Anchors是一种用于在AR会话期间跟踪平面对象(如桌子、地板和墙壁)的工具。在ARKit 6之前,Plane Anchor的原点会随着更多平面的发现而更新。如果原点在首次放置后旋转,这可能会使增强对象难以在平面上锁定到位。在ARKit 6中,无论平面的形状在会话期间如何变化,原点的旋转都保持不变。
ARKit 6将与iOS 16更新一起发布,该更新现已面向开发人员提供测试版,预计将于今年秋季向公众发布。