英伟达在2018年9月20日正式推出全新的GeForce RTX 显卡,采用全新的命名,相比上一代GTX显卡除了性能提升之外,还提供所支持的游戏增加了电影级逼真效果的光线追踪技术以及DLSS技术等特性,有助于增强游戏性能,同时也能提升玩家体验。
DLSS技术原理是什么?
DLSS(深度学习超采样技术),它依赖于Tensor Core具备的深度学习能力,使用低分辨率图像(比如1080p)生成高分辨率图像(8K),再把8K图像缩回4K,得到超级采样抗锯齿(SSAA)图像,以代替传统的时间抗锯齿等技术。
简单通俗地讲,就是利用经常不工作或者工作量不饱和的Tensor Core单元进行游戏画面的抗锯齿工作,释放了原本用于抗锯齿运算的CUDA流处理器通用运算单元。
补充亏锯齿原理
然后再看看一下传统抗锯齿算法的原理,在放大模型的情况下,使用特定算法来消除被放大后的画面物体边缘出现的凹凸锯齿。
传统算法常是基于某种逻辑计算模型,需要越精细的结果自然需要越强的计算能力。虽然已经有了更好的抗锯齿算法,但是家用显卡却并不支持这些算法的实时处理。
其中被释放的流处理器就能用于游戏画面的计算,相当于流处理器变多了,游戏帧数自然也提高了。
而深度学习超分辨率采样分为两个步骤,一个是训练阶段,一个是处理阶段,这两个阶段使用的是同一个模型。
在训练阶段,需要使用大量的“显卡原始输出图像”(1080P分辨率或2K分辨率)和“对应的超级计算机抗锯齿处理过后的图像”(8K分辨率)这样的图像组对这个模型进行训练,使用深度学习技术优化这个模型,使得这个模型能够从低分辨率图像生成高分辨率图像,这个过程需要庞大的计算资源,由英伟达计算,将模型训练好后将该模型推送给用户。
而在用户这一侧,则是完成处理阶段,先生成低分辨率的游戏图像,然后交由这个模型处理生成高分辨率图像,不论这个模型的参数如何改变,只需要支持每秒60帧的处理,就能够获得接近超级计算机的抗锯齿性能。
但是DLSS会调用Turing GPU里面的Tensor Core,然后享受强大的发热量吧。而且目前已知的支持DLSS游戏,包括还未发售的,不到20款。所以想要完美体验DLSS功能的,还需要等等。