捕捉裸手动作、精准位置跟踪,英特尔芯片设计师重构VR底层交互
文\小饭桌新媒体记者 徐传达
编辑\何斌
拂去前两年VR、AR行业的泡沫,在这场“淘汰赛”后还活着的企业或许能瞥见这个行业未来的发展轨迹。
在AT&T、英特尔等世界500强都工作多年的何安莉,见证了从PC时代到移动互联网时代的历程。在她看来,没有鼠标,电脑的操作就非常复杂、很难流行;没有苹果首创的全触摸屏,智能机的推广也必然会缓慢不少。“底层交互方式很大程度上影响产品的被接受程度。”何安莉介绍说。而uSens目前在做的就是,VR、AR的人机交互方式创新。
传统的VR、AR交互方式是,佩戴数据手套进行操作。这样既麻烦、又看不到真实世界。而uSens用的是裸手三维人机交互,佩戴头戴设备+Fingo(手势交互模组)之后,既无需佩戴数据手套,也没有数据线限制。之所以选择手作为交互切入点,何安莉认为,人与世界的交互主要通过手、眼睛、声音,最频繁的就是手和声音,语音识别已经是一个成熟的赛道,反而是交互最自然、最频繁的双手研究并不成熟,从AR、VR的底层技术切入还有机会。
在何安莉看来,VR交互需要具备的基本点,包括:能看到自己的手、不低于6个自由度的头部位置变化、方便移动、与虚拟世界进行类真实的互动等等。
基于此,uSens目前已经发展成熟的技术有两种:手势识别、头部位置跟踪。
在手势识别上,智能硬件Fingo通过两个红外摄像头及三个红外辅助灯追踪手部动作,软件上通过深度学习和计算机视觉,实现对双手26个自由度的追踪,实现了对一系列双手交互的复杂动作的低延迟识别,如握拳、手心写字、十指交叉等。“最难的部分是对遮挡部分的识别,如握拳时食指、小指都看不到,这些都得靠深度学习进行判断。”
在位置跟踪上,传统解决方式是采用Outside-in方式,比如HTC VIVE的Lighthouse的方式,即在屋子中放置多个摄像头来捕捉用户行为。uSens采用的是Inside-out 追踪技术,即仅用头戴设备即可,不受环境限制。 “空间位置追踪是VR、AR沉浸感体验的一个关键指标,简便和准确的位移跟踪能帮助用户更沉浸在环境中。” 在现场演示中,测试者手持一手机,从一个点出发绕行一圈,再回到出发点时,画面中间的气球位置保持不变。当人站立静止时,气球稳定、不抖动,当快速上下左右摇动手机,气球也并没有出现偏移。
在今年,uSens除了VR技术合作外,与很多AR领域的合作伙伴进行了多方面的合作探索。在实际应用上,目前uSens已经和数十家企业开展合作,包括游戏行业、教育行业、汽车行业营销领域等。
在团队方面,CEO何安莉曾在斯伦贝谢(Schlumberger)、AT&T、英特尔(Intel)等世界五百强企业工作,并在英特尔任高级芯片设计师8年。联合创始人费越在诺基亚、摩托罗拉、松下与亚马逊等世界五百强企业的科研实验室参与开发了多个重要科技产品;联合创始人时驰曾在美国就职于世界财富500强的Old Mutual和德意志证券交易所。此前,项目曾获得包括IDG资本在内的数百万美金天使轮融资,以及包括复星昆仲资本、达晨创投、东方富海等在内的2000万美金的A轮融资。