进一步加强深度伪造防御
快速阅读: 《国防高级研究计划局(新闻稿)》消息,DARPA与DSRI合作,推进AI生成媒体检测技术发展。自2016年起,DARPA开发多种取证工具应对在线威胁,并推动其应用与商品化。DSRI将管理竞赛,促进技术共享,确保工具跟上生成式AI进展。
2025年3月5日
美国国防高级研究计划局(DARPA)已与UL研究院旗下的数字安全研究所(DSRI)签署合作协议,以继续推进对人工智能生成媒体的检测、归因及特征分析的研究。随着自动化篡改技术的普及以及社交媒体持续为病毒式传播提供温床,被篡改的媒体(包括文本、音频、图像和视频)所带来的威胁近期显著增加。
自2016年启动“媒体取证”(Media Forensics)项目以来,DARPA又在2020年的“语义取证”(SemaFor)项目中延续发展,现已开发出一套全面的取证技术,用以应对这些在线威胁。得益于这些投入,该机构系统性地降低了开发新型工具的风险,这些工具能够检测、归因并描述由人工智能生成或篡改的媒体内容,涵盖文本、音频、图像和视频等领域。其中许多工具均可通过一个开源存储库供进一步使用和优化。
自2024年9月SemaFor项目结束后,DARPA一直在积极推动相关技术的实际应用,并与行业携手实现这些工具的商品化。同时,DARPA还致力于与更广泛的科研社区合作,以适应生成式人工智能技术的迅速演进。
根据协议,DSRI将负责管理SemaFor的持续公开竞赛——“人工智能取证开放研究挑战评估”(AI FORCE),公布挑战成果,并在学术会议(如计算机视觉与模式识别大会)上颁发研究资助。通过在会议中特别设置环节公布获奖者,DSRI旨在继续推动开放的科学生态系统,促进技术和理念的共享。
“创新并非孤立发生,因此我们需要沟通我们的工作,与行业、学术界以及潜在的技术转化伙伴合作,将技术落地到实际场景中,”SemaFor项目主管威尔·科雷维(Wil Corvey)表示,“DSRI在产品测试与评估方面的使命,特别是在复杂且不断发展的社会技术环境中部署产品的能力,使其成为这一领域的理想合作伙伴。”
“公众需要了解我们在数字信息生态系统中所展示内容的类型及其来源,就像实体图书馆标注书籍类别(如虚构与非虚构作品)并标明出处一样,”UL研究院数字安全研究所执行主任吉尔·克里森博士(Dr. Jill Crisman)指出,“DSRI致力于确保数字信息测试与检查工具始终紧跟生成式人工智能的发展步伐。”
欲了解更多关于上述努力及资源的信息,请访问[semanticforensics.com](http://semanticforensics.com)。
如有媒体咨询,请联系DARPA公共事务部:[outreach@darpa.mil](mailto:outreach@darpa.mil) 或 DSRI:[dsri@ul.org](mailto:dsri@ul.org)。
(以上内容均由Ai生成)