首席未来官告诉你,构建元宇宙的游戏引擎还差点啥?
游戏引擎正在迎来史无前例的高速发展期,一方面随着遵循摩尔定律的硬件性能不断提升,价格逐渐下降,玩家对3D建模的画质和逼真度有了更高的要求,游戏引擎作为3D建模的基础工具成为了一种必需品。
1. 在游戏领域外,还有很多场景需要建模,在影视作品中,《飞屋环游记》这类动画片就大量运用了3D建模工具。
未来,随着虚拟世界对真实世界的拟真程度越来越高,很多在真实世界中做的试验、测试、训练都可搬到虚拟场景中。
现在英伟达就在自己搭建的虚拟城市中,没日没夜地训练汽车的自动驾驶能力,这会让那些自动驾驶公司在真实世界里,训练了上千万公里所积累下来的经验优势荡然无存。
甚至20年后,不少人会真正生活在虚拟的元宇宙中,只是偶尔回到现实世界出个差。而在整个现实世界虚拟化转型的大进程中,游戏引擎起着举足轻重的作用。
2. 在之前首席未来官的文章中,我们提到了目前游戏引擎的两个难点,一是物理规则的模拟,二是光影色彩的高度还原。
除此之外,还有一项难点在最近获得了较大进展,即真实动作还原。这里动作通常指人类的各种动作,因为动物的运动相对简单,玩家也不挑剔。而对于人类的动作,只要略有不协调之处,我们可以很敏感的察觉到。
动作捕捉技术最初应用于影视作品,近10年大量运用于游戏中,尤其是运动类游戏对动作捕捉技术有高度依赖。
3. 动作捕捉技术的原理相对简单,通过在人的四肢和身体上贴上传感器,在人体运动过程中,全方位采集运动数据,随后将这些数据导入根据人体结构建好的三维模型中,就可让虚拟人物重现测试者的运动轨迹。
在足球游戏《FIFA》系列、篮球游戏《2K》系列的制作过程中,就大量运用到了动作捕捉技术。甚至邀请到了大牌明星,让他们戴上传感器,以便在游戏中,复现他们独有的运动姿态。
4. 不过在游戏中,我们依然可以发现很多明显不协调的动作。这暴露出了动作捕捉技术在游戏应用中的一个重大缺陷。动作捕捉本质上是一种穷举法,也就是游戏中只能模拟现实中测试者已经做过的动作,而真实生活中人体的动作几乎是无限多的,是无法通过动作捕捉将其穷尽的。
因此,游戏引擎在真实动作还原领域的下一个方向是基于已经捕捉的大量人类运动数据,结合人工智能,解决两个问题:一是基于人体的骨骼和肌肉结构,哪些动作是能做,哪些不能。第二,在什么样的场景下,应该做出什么动作。
例如玩家操纵的角色在游戏中被一块石头绊倒。面对这一场景,目前几乎所有游戏的应对策略都是播放预先设定好的动画,这可能是通过软件制作出来的,也可能是通过动作捕捉技术采集的。
但未来,整个摔倒的动作将是实时计算的,也就是根据人运动的惯性,脚触碰到石头的位置等信息,模拟出真实摔倒的动作特征。
5. 上述提到的几个游戏引擎的难点主要是面向玩家的,强调虚拟世界对真实世界的还原。其实还有一类游戏引擎的难点面向的是开发者。
对于开发者,游戏引擎最重要的就是要降低开发难度,优化开发流程。
首先可以通过在游戏引擎中添加更多模块化的功能,让开发者可以直接调用,这能有效降低游戏开发门槛。
例如英伟达的Omniverse平台推出的Audio2face功能,可根据音频自动AI生成跟真人发声时一样的口型,避免了开发者从底层开发面部动作的麻烦。
6. 其次,在开发流程中,开发者通常会根据需求使用多款特点不同的建模软件,但这些建模软件的数据格式并不统一,同步起来非常麻烦。
在这样的背景下,源于动画影视公司皮克斯的USD(通用场景描述)数据格式逐渐受到了各大3D建模软件的青睐,纷纷开通了对USD的支持。简单说,USD就像是3D建模中的网址格式,只要网站链接是有效的,用任何浏览器都可以打开。
7.得益于USD的流行,英伟达的Omniverse平台就是完全基于USD数据格式打造的,并且对接了原本独立的游戏引擎和3D建模软件,使这些软件可以在Omniverse上互联互通,交换有关建模、着色、动画、灯光、视觉效果和渲染的信息。
这意味着在平台上的一次改动会立即同步到其他软件上,避免了数据频繁导出导入的麻烦。
未来的游戏引擎必然朝着更加开发者友好的方向继续迭代,而优秀的游戏引擎将成为未来构建元宇宙的基础工具,让我们拭目以待吧。