GMGC•成都•2018 | Epic Games谢添敏:用虚幻引擎做些不”好”玩的事情

 

由全球移动游戏联盟(GMGC)主办的第七届全球游戏开发者大会暨天府奖盛典(简称:GMGC•成都•2018)于2018年11月5日-6日在成都首座万豪酒店盛大召开,本届大会以“恋游戏•游戏链”为主题。大会定向邀请1000+来自全球各地的优秀游戏开发者,3000+专业观众参会交流,此外还将联合100+行业媒体全程关注与报道此次盛会!

谢添敏1

本届大会遵循了GMGC·成都历年来“追求实战·干货至上”的原则,在游戏前沿技术的探索与分享上不遗余力的提供更好的内容。在首日大会上,来自Epic Games的商务总监谢添敏先生发表了题为《用虚幻引擎做些不"好"玩的事情

》的主题演讲,分享了用虚幻引擎开发游戏以外的功能,当虚幻引擎作为灵活的工具,在各方面都可以提供比较好的状态。

 

以下为Epic Games的商务总监谢添敏的演讲实录:

 

一般人觉得做游戏很好玩,但业内不这么看。首先讨论引擎时在讲什么,一些公司内部自己做游戏的时候会把自己的工具变成一个商业化的软件,让大家能够用这个软件更便于做游戏。虚幻引擎其实不仅仅是一个软件工具,更准确的描述是软件的集合以及整套设置平台,甚至定义了开发团队的工作流程和职能配合。虚幻引擎它的强大之处就在于很棒的图形化渲染,除此之外,我们有着可视化的蓝图。可能有一些团队关心的是蓝图在手游上的呈现,有些关注的是引擎提供的网络框架可以很方便开发游戏,不同团队的关注的点不同,虚幻引擎作为灵活的工具,在各方面都有给大家提供比较好的状态。我介绍一下我们开发过的已经转到了虚幻引擎开发上的游戏,如 《机械重装》、《王牌空战》、《吃鸡》、《街霸》、《铁拳》、《龙珠》、《刀魂》等。

 

除了游戏引擎,我讲讲游戏团队在开发上还能做什么。我们虚幻引擎作为游戏引擎,分了几个类,包括媒体、娱乐、建筑、工程、建造,在这些不同分类下可以看到在不同行业中都有很多实际的应用,今天也给在座的开发者有一些新的想法或者启发。首先我们看一下电影行业在真人拍摄时会有预演,可以利用很多实时渲染的工具将预演做到成本最低、效率最高,让真实的拍摄节省很多时间。进一步外延可以做一些商业广告,这一些是商业案例。Live Link是和各种动画工具整合后,让其能更快在引擎中显示出框架,它可以接玛雅,也可以接一些实时的工具,可以把演员的实时数据传到引擎中。

 

除了动作捕捉以外,虚拟拍摄也是另外一个非常火的话题。通过面部捕捉将建模在引擎中还原,这是实时的效果,用他的面部数据驱动这个外星人模型,这个动作没有一一对应,就是利用了一些AI的技术和面部肌肉的技术,让它表现的张力都体现出来。刚才说到了Live Link,简单讲是一个传统动画制作方式和Live Link动画制作方式的对比,在Live Link上动画师可以在玛雅里边K动画,在K的同时,在引擎里边的效果就可以被实时看到。这其实是有非常多好处的,如果说引擎中做了一些实时的例子绑定、物料绑定,可以立刻直观看到动作效果好还是不好,并且可以做更快的修正。电影拍摄的时候可能摄影师扛着摄像机,还有一种是摄影师可以扛着一个虚拟摄像机,可以是一个安卓,可以是一个Ipad或者其他设备,利用摄像机的定位做真实的拍摄。这个拍摄过程可以把动画保存下来,在引擎中还可以去修正,如果摄影师拍得不够高,或者哪里抖动,可以修正,这也是影视制作新的技术。刚才说到流程,我们引擎介入以后,如何改变传统影视的流程,这是一个非常关键的点。左上角是传统的影视流程,第一个环节做完交付第二个环节,导演把故事讲完就开始预制,预制之后交给制作,制作之后交给后期,每个步骤做完以后,上一个步骤都是不可控的。通过虚拟拍摄,人们可以在最早的时候就介入,并且在前期的工作流程上修改,这件事情对导演来说是很开心的。因为他会对作品更有可控权,但是对于制作团队而言需要适应新的制作流程和规范。

 

虚幻引擎在最新的版本中提供了电影DIF,也就是景深,这个景深已经非常接近光学成象的效果。今年Ray Tracing的变革,这个短片中是实时渲染的,左侧的过程是渲染的介绍,右侧可以看到它的光照、反射效果,只有在以前比较传统的渲染上才能达到。为什么说Ray Tracing,在一层一层的镜子在传统的渲染上,这个做法要么是取巧,要么是其他的方式,在Ray Tracing可以根据光跟踪制作下来。最左边的小球其实还是有相当多的噪点的,每个像素做一次采样。右下角这个是在Ray Tracing上真实的面光源的效果,它能够倒出软阴影。除了电影以外,在广播电视领域,大家做动画片,包括刚才可能有说到做电影都可以用,我们看到在一个虚拟演播室,最典型的场景就是天气预报,在其中结合引擎画面和一个虚拟的画面展示,再配合上主持人的表现,可以让很多节目变得更有意思。天气预报的基础上,大家可以想象,综艺节目与一些真实的和AR相整合之后,可以让电视节目带来非常棒的效果,并且不管是做科普,和所谓的军事大视野,都可以用到。

 

刚才说到电影和广播,现在网络剧的制作追求的是高效和快速迭代,不再追求大屏幕上的精细度。这样的项目不管是海外还是国内,有大量的公司在做,有些是传统的游戏公司,有些是传统的影视公司。大家都在各自的专业领域范围内去尝试一些新的制作方式。

 

最后,广播电视的硬件整合。广电方面,会有一些硬件专业的卡,现在这部分卡也是最新做了一些整合,不用再做二次开发。室内设计是大家比较很熟悉的用虚幻引擎制作的领域,它能让传统的装修效果图变得实时,甚至可以和虚拟空间的物件做交付,不管你输出视频,还是输出成其他的制作。做室内设计最重要的就是如何控制光和影,室内设计更讲究对真实光影的还原。右上角有一个叫做天光的多次反弹,这个工具如果在很久以前这方面做业务的团队可以尝试一下,它会对画面做进一步的提升,包括面光源和左下角的部分。我想说,一个项目其实是利用引擎的交互性,在设计之初就很好去控制它要做的室内设计的东西,不管是给客户演示还是设计师自己在设计迭代的过程中高效地去修改,它其实都是能带来质量提升,对客户就更不用说了,客户说把红的染成蓝的,其实改动也很快。

 

工程制造领域中的汽车、航空航天,甚至是大家不太了解的一些工厂的布局,对于工厂流水线生产的优化,传统的都是看图纸和CAD规划图,领导和设计师是靠脑部,现在基本可以利用引擎做很好的还原,对想要的东西做真实的还原,对于无论是做决定也好,还是做一些判断,它来的信息会更加的直接。我们之前放出过一大批材质素材,让大家可以尽快做工业上的东西,材质素材是开发团队比较纠结和很难的一点,现在可以直接利用。我们的引擎作为开源引擎,在工业软件可能会做一些衔接,开源引擎二次开发的优势很强,再则就是数据导入过程,我们最新的数据版本中也做了不断改进。我们为什么做这个事情?大家可以用MAX做引擎,通过这个它来保存原有的贴图、材质、模型以及灯光、摄像师的设置,这部分信息可以完完全全在引擎中保留它,另外这部分是对于各个工业软件不断加强的支持。这里边还有工业软件可能会包含点到点的距离、曲面的曲率,这些信息很多时候在后期是测量不出来的,或者是有误差的,所以要保存这些引擎,这样在工业软件中,或者工业应用使用的时候可以利用。Ndisplay可以让多台显卡同步输出画面,比如这张图有四个大屏幕,每个大屏幕甚至是有左右眼的立体效果,基本是八个屏幕的大分辨输出,这可能需要多台机器同步才能保证所有的画面都是一致的。我们还有技术的AR平台,如果现在把所有的AR的框架都统一了,那么开发者只要做一次就可以用到所有的平台上。

 

    简单小结今天的演讲。除了游戏团队拥有自己的专业技能和开发团队,也可以利用工具在现有技术的进展上做出一些非常棒的项目。

媒体底图

 

Top