用于识别深度伪造图像的软件
快速阅读: 《专业安全杂志在线》消息,英国朴茨茅斯大学研发“深度卫士”软件,结合三种AI技术鉴别真假图像来源,旨在打击欺诈犯罪、维护媒体报道真实性。该工具可识别篡改图像风险,保护隐私安全,提醒公众注意数字时代潜在威胁。
分辨真假变得愈发困难。为此,英国朴茨茅斯大学的人工智能与数据科学研究中心(PAIDS)展开相关研究,开发出一款能区分假图像与真图像,并识别人工图像来源的软件。这款名为“深度卫士”(DeepGuard)的解决方案融合了三种人工智能技术:二元分类、集成学习以及多类分类。这些技术使AI可以从标注的数据中学习,从而实现更智能、更可靠的预测。
研究人员指出,“深度卫士”是一项用于打击欺诈等犯罪活动的工具,同时也能为媒体所用,确保报道中使用的图片真实可信,避免错误信息或无意偏见的传播。该软件由阿尔及利亚穆斯塔法兄弟大学电子系的古尔图姆·宾迪亚布博士和雅丝明·纳马尼领导的研究团队开发,团队成员还包括朴茨茅斯大学PAIDS研究中心及计算学院的斯特沃斯·希亚莱斯博士。希亚莱斯博士表示:“随着技术能力的不断提升,仅靠肉眼辨识假图像已成持续性难题。篡改过的图像严重威胁我们的隐私与安全,因为它们可能被用来伪造文件进行敲诈、破坏选举、制造虚假电子证据,甚至损害声誉,甚至可能被利用来煽动对儿童的伤害。此外,人们还利用社交媒体平台(如TikTok)通过不正当手段获利,比如将模特照片变为游戏角色,再在游戏内制作各种场景动画。”
他补充道:“‘深度卫士’及其后续版本应成为一种验证图像(包括视频中的图像)安全性的宝贵工具,适用于多种情境。”这项发表于《信息安全与应用杂志》的研究不仅推动了学术领域的进一步探索,还为学者提供了数据集。在开发过程中,研究团队回顾并分析了图像篡改与检测的相关方法,重点关注涉及面部和身体改动的假图像。他们探讨了检测篡改图像的技术,包括表情、姿势、声音以及其他面部或身体特征的变化。
这一成果将为构建更加安全的信息环境贡献力量,同时也提醒公众警惕数字时代潜在的风险与挑战。
(以上内容均由Ai生成)