游戏 正文页 有图无图

NVIDIA GEFORCE UPDATE媒体见面会会后采访

04月25日 16:14新浪游戏

  4月18日,NVIDIA在北京举行NVIDIA GEFORCE UPDATE媒体见面会,会上回顾了NVIDIA全球活动GTC、GDC等展会会议上公布的新技术和新游戏。同时抢先面对媒体公布了RTX系列、GTX系列产品技术动态。

  随着NVIDIA推出采用GeForce GTX 1660 Ti和1650 Turing GPU的游戏本,使得玩家拥有更多选择空间,GeForce GTX 1660 Ti和1650在整体性能和能效比方面为当今的热门游戏带来重大飞跃。目前,全球顶级的游戏本生产厂商将陆续推出80多款搭载最新GeForce GPU的笔记本。

  笔记本用户通常会对使用四年左右的笔记本进行升级,在更换到最新的GeForce GPU后,将明显感受到新款笔记本的巨大性能提升。以GeForce GTX 1660 Ti笔记本为例, 它采用最新技术,与四年前的GeForce GTX 960M笔记本相比,带来4倍的游戏性能提升。

  此外,游戏玩家可以在1080p分辨率下以100FPS畅玩《堡垒之夜》(Fortnite),《绝地求生大逃杀》(PUBG)和《Apex英雄》(Apex Legends)等热门游戏。

  以下为NVIDIA市场技术经理朱亮,接受媒体群访,针对玩家们所关心的诸多问题进行解答。

  媒体:关于RTX游戏的部分,有两个问题,第一个是在光线追踪游戏刚开始上市时,我们看到了一个未来支持光线追踪的游戏榜单,那么榜单中新游戏以及老游戏会在什么时候支持光线追踪NVIDIA会给出一个时间表吗?另外榜单中的游戏会有增加或删减吗?第二,在演示中我注意到并不是每一款支持光线追踪的游戏都利用到了Ray Tracing的全部特性,例如有的游戏使用的是阴影、有的游戏用到了反射,那么以后游戏加入光线追踪时,NVIDIA驱动中会提示游戏中使用了光线追踪中的哪些特性吗?

  朱亮:首先我们和游戏开发商确实都有游戏发布时间的具体时间表,但是所有的游戏发布时间都是由游戏开发商来决定的,游戏厂商在游戏发布之前解决所有技术问题后,还需要考虑市场的因素,比如该款游戏适合在哪些区域发发布,,同品类游戏目前的情况,而这些问题NVIDIA不能代替厂商决策,NVIDIA只能和厂商沟通,提供大致的发布时间表,同时帮厂商解决技术问题,而游戏真正上线的时间,则由厂商自行决策。

  媒体:目前有没有关于即将加入光线追踪的游戏数量方面的数据?

  朱亮:NVIDIA内部其实是有的,但是这个数据不方便分享,因为NVIDIA不能代替游戏游戏厂商发布新游戏,

  第二个问题是关于光线追踪等级的问题。其实演示中提到的反射、阴影,环境光遮蔽和全局光照特性,是在游戏里面不同光线场景下面一个应用,我们只是把它人为分成了四个主要的部分,其实在做的时候有很多叠加,比如说也有反射,也有阴影,也有环境光遮蔽,或者是它用了全局光照,这也是取决于游戏开发商想怎么做游戏。因为它是一个混合渲染技术,我们只能讲他用了光线追踪的技术。

  媒体:以后我们拿到游戏的时候会有相关的资料告诉我们吗?因为有些游戏,像《古墓丽影》那种,说支持光追,但最后拿到手的效果并不是特别明显。我们去找原因,可能不如你们找我们说那几个特性没支持来得更快。

  朱亮:我明白,这个我们以后可以加强沟通,在我们知道这些信息的情况下,适合分享的时候我们会跟大家分享这些信息。游戏里面也会有不同DXR等级的设定,每个游戏设定是不一样的。有的是有开启和关闭,有的是有各种级别的Low、Medium、High、Ultra这几个选项的。其实这几个不同的选项里面是怎么定义的?比如它的Low是不用全局光照,还是说它是用了,但是只是光线数量比较少。这个完全是开发商来确定的,我们会给开发商提供所有的选项,由它设定这些东西。当然我们在发布游戏测试之前也会尽可能多把这些信息分享给各位。谢谢。

  媒体:我遇到一个问题,我看到表格上RTX 2080Ti的DLSS提升一般是比较低的,虽然它帧数是最高的,想问一下这是为什么?

  朱亮:这个问题非常好。DLSS这个技术是一个图像后处理技术,通过AI的方式对它进行一个图像后处理。这个技术天生有一个自己的技术上的限定,就是每做一个一帧的处理之前都要发给Tensor Core,处理之后再返回,直接是有一个数据交互的,虽然是在内部进行的交互,但是这个数据交互是需要时间的。当你的帧数足够高的时候,你在同一秒之内发给它的帧数非常多,它每返回一个帧数都要额外花几毫秒。当你帧数足够高的时候,这个返回的中间时间的延迟就变成了限制它性能的因素在里面。所以我们不建议在高帧率下开启DLSS,因为我只是用来提升性能的,你的性能已经足够好了,那你从DLSS上获得的性能就不会大。当然,当你性能差的时候,它的收益就会比较大。这个是它技术本身的限定。

  媒体:请问这个DLSS用的模型都是怎么更新的?是在每一版驱动发布的时候更新,还是驱动在后台推送给我?

  朱亮:我不知道您注意我们没有?下载我们的驱动的时候会有很多选项,包括Physics的版本,Audio的版本,包括驱动的版本,它有很多的选项,可以划勾,我要更新哪些,不更新哪些。在RTX出来以后,有一个专门的选项叫做NGX,它后面有版本号。我们是通过这个部分做模型的更新,也就是你在模型驱动的时候。也就是说你在升级驱动的时候会通过下载新的NGX的文件来更新所有DLSS的模型。这个模型是我们在后台做不同的训练训练好的,通过新的驱动推送给大家的。

  媒体:好的,也就是说我要等到每一次推送驱动这个节点的时候就能有DLSS的性能提升了?

  朱亮:对,是。它的NGX版本只要更新了,就证明是有新的用处了。

  媒体:这个更新每一次都是针对每一个游戏,然后针对每一个游戏的每一个分辨率,是这样吗?

  朱亮:这个更新我们没有固定的说是一定在这个游戏上面,我们会有一个更新的note,在这个里面我们会说我们这一版里面加强了哪些部分,如果提到了在这个游戏上面的性能提升,那就是在这个部分做了更新,因为每次更新的内容都不太一样,因为要针对不同的游戏去做,因为GAME READY DRIVER,根据不同的游戏做优化。如果给它做了优化,我们会在更新提示里面把这个部分列出来。

  媒体:这个优化还要持续更新训练这个模型?

  朱亮:训练都是我们在云端来做的。这个训练玩家不介入,那就是在这个部分做了更新,因为每次更新的内容都不太一样,因为要针对不同的游戏去做,因为GAME READY DRIVER,根据不同的游戏做优化。如果给它做了优化,我们会在更新提示里面把这个部分列出来。

  媒体:您说推送,那不是也推到您这个驱动?

  朱亮:是,通过驱动的方式做更新。

  媒体:这个是厂商那边在云端训练,还是英伟达这边?这个就看你们的关系好不好了?如果这个厂商不太支持它了,我就不更新你的了。

  朱亮:其实有点复杂,没有我说的这么简单,我说的是一个模型而已。所有的训练都是由我们来完成的,不是由厂家来训练给我们的,所有的数据都是不管从厂家那边拿也好,还是我们自己研究也好,还是通过各种方式,所有的训练所有的数据都是我们来做,我们有一个专门的做NGX平台的机构,我们公司内部有一个专门做这个项目的工作组来做这个研发,至于用到哪些硬件是很复杂的事,后台有很多复杂的东西我就不说了。但是这个确实是我们来做的,所以不会存在哪个厂商跟我们合作部好会影响训练结果,这个不会。

  另外,我们在训练的时候基本上是基于同一类型的游戏做训练模型。比如说都是射击类的游戏,那它可以功用一个模型。如果都是RPG,就可以共用另外一个模型。比如画风一致的,卡通画风的,都可以用一个模型。写实画风的可以用另外一个模型。中间这个数据是比较复杂的。我们在训练的时候有很多东西是可以通用的。但是这个是涉及到细节的部分,本身就是人工智能在研发过程当中的阶段。所以大概就是这么一个流程。

  媒体:我问这个问题就是因为有一些我的朋友会问我,我开了DLSS之后,画面变模糊了,我现在给他们的解释是你DLSS是一个战未来的技术,可能两个月之后这个模型它变得更加精准了,渲染出来的图像更加让你满意,就不模糊了。我很关心这项技术。

  朱亮:OK,谢谢您的问题非常好。我再补充一个DLSS的部分,因为DLSS在很多游戏里面优化的时候,因为它可以降低分辨率,也可以不降,它可以取决于不同的选项。正常情况下,比如我一个2K的分辨率,我用2K再加上DLSS,那个性能提升就很小,因为分辨率一样,后台渲染的部分,它只是优化了抗锯齿,但是有些游戏里面抗锯齿对性能没有那么大的影响。所以我用了DLSS以后性能提升没那么大。但是有些游戏我开了RT,在2K分辨率下我只能达到30帧,我达不到流畅运行,我需要它的性能爆发式地提升,这样我们就会考虑在这个模型里面降低它原始的,因为在开DLSS以后会把它原始的分辨率降低,我们通过Tensor Core把降低的这些分辨率再补回来,这样可以达到很好的性能的提升。

  但是会出现一个问题,你刚才讲画面模糊的问题,这个是在这个技术初期发展的情况下,因为比如说2K分辨率,我现在降了分辨率以后会变成1.6K,所以它看上去就没有2K那么清楚。另外在训练过程中还会有一些不成熟的状况,因为它毕竟是个新的技术,而且随着训练的时间,它的算法会越来越精准,达到的效果都会有不同的变化。

  像在《战地5》和《地铁》里面也好都有类似的问题。有些问题是可以通过游戏厂商这边打一个包来解决的。它就会推送一个游戏的更新包。有些是可以通过我们驱动解决的,我们就会在NGX里面做一个更新。这些都是解决这个问题的方式和方法。目前像您刚才讲的画面模糊的问题我们都注意到了,我们第一时间把这个游戏修正了,大概也就用了不到一周的时间,像地铁里面画面模糊的问题就已经解决了。我们在官方微博上已经发出了这个信息,我们有一个用户论坛里面有相关类似的问题的反馈。我们也在第一时间响应用户的这些反馈。

  媒体:我要给人DEMO画面的时候,DLSS我是用静态画面演示好还是动态画面演示好?

  朱亮:没有特定的说法,我们做这个东西的时候是全局优化的,不存在静态和动态差异的问题,可能会产生差异就是游戏不同差异会比较大,,游戏不一样。比如对比画质的部分,有些场景DLSS可能比DNN好很多。有些可能差不多。有些可能略差。这个是随着整个训练和游戏在优化的过程当中都会出现的问题。我们会尽可能确保我们的DLSS技术在应用以后会比之前的技术达到更好的效果,更高的性能和更好的画制。这是我们的目标。

  媒体:我想要的就是一个指导,我去演示光追的时候,我就到游戏里面到处去找镜子。我去给人演示DLSS的时候我也想知道,我去找斜线吗?

  朱亮:我懂您的意思,如果要看画面效果,可以看一些您刚才讲的有边缘的线可以看到抗锯齿的效果。另外在性能上面是及时生效的,不管任何一个场景下,只要打开了DLSS,它的帧数马上会变。所以没有特别限定的场景。

  媒体:DLSS在1080P的笔记本下就不用太在意了?

  朱亮:1080P,就像我刚才讲了DLSS技术本身有一个限制,因为1080P本身的像素就很少,它其实训练是提取每一个像素点看你怎么做像素修补,往上填像素的。如果在1080P上你获得的本身的像素就比4K和2K下面少,你1080P下面的性能又比较高,因为它的分辨率低,我性能比较高,你从DLSS上获得的收益就比较小。所以说它各方面导致了1080P下其实不是很适合DLSS这个技术。

  媒体:有些时候游戏就直接告诉你1080P笔记本就不支持了。

  朱亮:是,谢谢。

  媒体:我刚才听1660Ti的笔记本,您提到1660Ti和1070 的笔记本的性能,一个是1332,一个是1333,基本上是相当的。但是您提了一句,可能1660Ti笔记本对于新游戏的支持或者整个游戏体验更好,那我就有一点不太明白了,与1660Ti相比,RTX更高级的显卡,刚才提到把光追核心和张量核心裁掉了。它虽然用的是TURING架构,但是最关键的部分没有了,那它跟GTX相比,它对游戏的体验或者是对新游戏的支持有哪些增益,我不太清楚?

  朱亮:这个问题也非常好。因为我被问到过类似的问题。首先,我们要讲TURING架构是有一个传统的渲染架构和后面额外的RT Core和Tensor Core,其实都是在TURING架构里的核心。即使1660Ti里面没有RT Core和Tensor Core,它的传统的渲染架构的部分,我在最初的PPT里面讲了,它也是跟PASCAL有很大的差别,是整数跟浮点的同步执行。比如说《古墓丽影》里面100个指令集有38个是整数的,62个是浮点的。以前我就需要100个使用周期才能把所有的指令完成,在新的TURING架构里面我只需要62个使用周期就可以把它所有的东西都执行完成。

  之前看的比如说1.32,1.33性能百分比,其实是综合的百分比,我们会综合市面上主流的20几款游戏做综合比。有些部分可能1660Ti更好,有些部分可能1070更好,因为它跟游戏引擎不一样,游戏的状况不一样,它得到的最终的结果是不一样的。我们给出的只是参考综合的一个评价,像比如说在《古墓丽影暗影》这个游戏里面一定是1600Ti性能表现更好,因为它的,刚才我讲的()性能收益。另外还有DX12里面讲的一些可变率着色,可以节省很大的浮点和整数同步执行的部分,就能带来很大的收益。还有DX12里面可变率着色,它可以节省很大的shader的资源,在支持DX12的游戏的技术里面就可以从1660上获得更大的收益。而未来支持DX12的游戏会越来越多。因为现在基本上已经没有基于DX11开发的游戏了,只是存量的一些老的游戏。所以我们才画了那条线,游戏越新,你能达到的性能提升就越大。

  媒体:我问一个关于笔记本设计当中有一个散热叫做MAX-Q,对笔记厂厂商来说,你们是一个指导性的构架,还是说我只要用了GTX或者是RTX系列的显卡就必须要用我建议的架构来完成你的设计?还有一个问题,是不是不同级别的显卡,因为散热需求不一样,它的架构是不是也是会有一定的变化。

  朱亮:是这样,我们在MAX-Q是一个整体的设计,首先它不是一个技术或者是什么样的东西。这套设计里面是包含了GPU的调教,和整个布线的设计,散热的需求和综合的指标。我们跟笔记本厂商谈的时候,他们有这种需求的时候会跟我们做沟通,只有达到我们这个设计标准的时候,我们才会认为这是一个MAX-Q的产品,如果没有达到就不是。因为在驱动里面会有一个识别,如果识别出来就是2080 MAX-Q,如果达不到这个标准,就是2080,不有MAX-Q,也不能算是认证,差不多可以这样理解。

  媒体:我就想问一下,这一代的显卡笔记本是没有1660的型号吗?

  朱亮:没有,是1650和1660Ti两款。

  媒体:还有就是GRD和CRD这两个驱动是通用的吗,我能同时享受到游戏优化和设计软件优化吗?

  朱亮:这两个只能装一个。当然中间可以把它卸载下来再换一个,这是可以的,但是只能装一个。

  媒体:我有一个针对笔记本和台式机的驱动的问题。因为我做笔记本的视频稍微多一些,然后我会发现经常会有很多首发,或者是发一段时间之后的笔记本的显卡驱动会很奇怪,要么是针对个别游戏帧数特别低,要么是全局游戏的帧数特别低。就是针对不同的品牌可能都会有区别。这样一个问题。我不知道具体是驱动的问题,笔记本上面不能用GEFORCE EXPERIENCE的这种驱动还是必须…就是它有一定的限制?

  朱亮:我个人判断,这个有可能是因为你在玩游戏的时候,因为你的工作环境不一样,有的已经比较热,有的地方比较凉,因为笔记本其实是一个动态的,包括CPU和GPU都是可以动态调整的,它会根据你的功耗,比如你插电的时候性能比较好,你把电拔了性能会比较差,有可能会出现这种情况,比如我在这种状况下可能导致我变成了一种电池状态。电池状态下它会有一个性能的限制。包括你的温度达到一个水平的时候,不同的厂商对这个限定是不一样的。有些厂商设定你达到80度以后,我会做一个性能限制,我一定会把频率降到一个什么水平,可能这个每个厂商的设计都不一样。这个要通过不同的品牌来判定。当然也没有一个统一的判定标准。

  这是笔记本现在通用的一个问题。所有的笔记本都存在这样的状况,它其实是对产品的保护,台式机对于这方面就没有那么严苛,因为笔记本的散热空间会比较小,比较轻,比较薄,它散热的整个条件没有台式机那么好。所以台式机在这方面不太可能出类似的状况。当然极限的情况下也不排除,但是出错的概率比较小。笔记本就有可能出现类似的状况。因为我没办法判定您刚才讲的那部分具体是哪一款或者是怎么样?如果出现这样的问题我建议可以打笔记本的热线去咨询。应该都会得到解答。

  媒体:您刚才所说的,如果出现这样的问题应该不是驱动所导致的,可能是说笔记本散热情况,或者它的功耗强度,或者温度强度设置。我之前有接触过几台GS75和GS65的机器都是有相同的问题。我也是试了很多版本的驱动,您大概是可以非常确定的是如果我在笔记本上使用GEFORCE Experience里面的驱动是没问题的?

  朱亮:是的。

  媒体:跟官方,跟MSI官网提供的驱动是一样的,都是可以用的?

  朱亮:驱动可能会有微小的差别,每个品牌可能会对一些驱动有定制,这个是目前存在的状况,就是有些品牌,有些型号会有驱动定制的状况,不是所有官方的驱动都适用于任何笔记本电脑。但是如果你装了GFE,能够搜索到并推动你下载,那是支持,是OK的。

  媒体:所以还有OEM厂商定制驱动的情况?

  朱亮:会。

  媒体:但是不是普遍情况?

  朱亮:这个情况肯定是存在。

  媒体:我还有一个问题,CRD跟GRD这两个驱动为什么不能整合在一起,根据我现在使用的程序对我现在的程序进行优化呢?

  朱亮:这个涉及到我们整个驱动的机制问题,就像你装Windows,再装一个Linux,你可以切换一样。有的电脑可以装双系统来切换。但是现有的Windows对于显卡驱动上的要求是你只能有单一的,不能来回切换。

  我给你解释一个我们更新机制的问题,其实我们可以说通俗一点,我们把这个时间点当作4月1号,我们在发的时候其实是统一的一个大驱动,里面有GRD和CRD。因为CRD本身更新速度很慢,CRD这些固定的软件大家都看到了。这些都是商业公司的软件,相对来说,它不会像游戏那样,有很多很多游戏,更新的很快很快。我们举个例子,4月1日如果更新一版,这版里面支持GRD,CRD的东西。但是到了4月10日,这个creator的软件并没有有一些更新,但是我们可能会出现一个新的游戏玩家很着急,我不能说我要更新这个,我们就会不停地推出GRD。所以你可以看到,GRD的更新节奏是比CRD要快,或者是频繁很多很多次。

  我举这个例子,5月1日,CRD有更新了。这版CRD更新的时候,前面所有的GRD里是有的。比如说我两个驱动都装进去是不可能的,但是每到这个点的时候是有的。可能到5月30日又(出一个新游戏,大家又开开心心地去玩儿了,玩到6月1号的时候,可能到6月1号CRD更新,可能这会儿没有新游戏了,更新一下CRD,但是前面的东西是会有的,是我们更新节奏的问题。因为游戏厂商比较快,比较灵活。相对来说creator的这些厂商东西少。所以其实这是一个更新节奏的问题。

  关于NVIDIA

  NVIDIA(纳斯达克股票代码:NVDA)在1999年发明的GPU激发了PC游戏市场的增长,重新定义了现代计算机显卡,并且对并行计算进行了革新。最近,通过将GPU作为可以感知和理解世界的计算机、机器人乃至自动驾驶汽车的大脑,GPU深度学习再度点燃了全新的计算时代——现代人工智能。