英特尔推出AI工具评估游戏画质
快速阅读: 据相关媒体报道,英特尔开源AI视频质量评估工具CGVQM,基于PyTorch,采用3D-CNN架构,可客观评估游戏画面失真,效果优于现有工具。
据IT之家报道,7月17日,英特尔在GitHub上开源了一款基于AI的视频质量评估工具——计算机图形视觉质量指标(CGVQM),旨在为现代游戏和实时渲染图形的画质评价提供客观标准。
该工具以PyTorch应用的形式在GitHub上发布,配套的研究论文《CGVQM+D:计算机图形视频质量指标及数据集》也已对外公布。
当前,游戏画面普遍依赖DLSS等超分技术、帧生成、可变速率着色等手段来提升性能与画质,但这些技术也会引发鬼影、闪烁、锯齿、遮挡等问题。此前,业内多通过主观评价来描述这些缺陷,缺乏标准化的客观量化工具。
英特尔研究团队采取了双管齐下的策略:一方面,构建了一个全新的视频数据集——计算机图形视觉质量数据集(CGVQD),涵盖了路径追踪、神经去噪、神经超采样(如FSR、XeSS、DLSS)、高斯泼溅、帧插值和可变速率着色等技术所引发的多样化画质退化;另一方面,基于该数据集,训练了CGVQM AI模型,专门用于识别并量化这些失真。
研究团队邀请人类观察者对数据集中的视频失真程度进行评级,形成从“几乎不可察觉”到“非常恼人”的感知基线,再以此为依据训练AI模型。模型采用3D卷积神经网络(3D-CNN),具体基于3D-ResNet-18架构。3D网络可以同时捕捉空间和时间维度的图像特征,更好地识别视频中动态变化带来的画质问题。
实验结果显示,CGVQM的评估效果几乎全面超越现有同类工具。其中,更复杂的CGVQM-5模型在CGVQD数据集上的表现仅次于人类基线评分,简单版CGVQM-2也稳居第三。更重要的是,CGVQM在未见过的视频中同样展现了良好的泛化能力,具备广泛适用价值。
研究人员表示,未来可通过引入Transformer网络架构进一步提升模型性能,尽管这会带来更高的计算资源消耗;也可以引入光流等信息以优化失真识别。
(以上内容均由AI生成)