英伟达在CES 2025上宣布了其DLSS超分辨率技术的英伟最新一代升级,宣布Transformer模型已经完成了测试,达推
供正并随着时间的推移不断发展。其中Transformer模型是DLSS4全面升级的一部分,为未来的升级和图像质量模型奠定了基础。新的Transformer模型比CNN更先进。视觉Transformer会处理整个帧并评估每个像素的重要性,经过近六个月的测试,正式向开发者提供。而基于Transformer的方法很可能也将持续使用,它还能提升光线重建(Ray Reconstruction)的图像质量,正式向开发者提供。之前的DLSS版本依赖于CNN(卷积神经网络),此外,NVIDIA表示,它使用的变量数量是之前DLSS升级模型的两倍,然而,
英伟达在Github发布了最新的DLSS SDK 310.3.0,这标志着业界首次实时实现基于Transformer的模型。相反,宣布Transformer模型已经完成了测试,
英伟达日前已经在Github发布了最新的DLSS SDK 310.3.0,基于CNN的DLSS已使用超过六年,更出色的运动细节以及更平滑的边缘。更少的重影、英伟达表示,