澳安全专员警告:新AI平台加剧深度伪造图像危害
快速阅读: 澳大利亚电子安全专员警告,OpenAI的Sora 2平台使生成色情深度伪造图像更易,过去18个月相关报告翻倍,学校每周至少发生一次滥用事件,技术放大在线危害。
澳大利亚电子安全专员朱莉·因曼·格兰特表示,一款新的人工智能平台的推出将使澳大利亚人更容易生成色情深度伪造图像,这将把“潜在的在线危害放大”。该平台名为OpenAI的Sora 2,能够在几秒钟内创建超逼真的20秒视频,可能会导致关于生成图像的投诉增加。因曼·格兰特在黄金海岸表示:“过去18个月,我们接到的深度伪造图像滥用报告数量翻了一番。”她补充说:“澳大利亚学校每周至少会发生一次深度伪造滥用事件。”
“尽管这在我们的图像滥用报告中仍占较小比例,但这只是冰山一角。这是一个真正的担忧,这种技术正在将潜在的在线危害放大。”因曼·格兰特指出,虽然阿尔巴内塞政府将于12月10日实施世界首个针对青少年的社交媒体禁令,但这一平台不会受到该禁令的影响。电子安全委员会正对一家位于英国的公司采取行动,该公司负责开发一些最受欢迎的“脱衣”应用程序。
新南威尔士州议会周五发布的一份关于有害色情内容影响的调查报告也警告了人工智能生成图像滥用的危险。报告发现,年仅10岁的儿童就已经在网上接触到色情内容。这导致了“性侵犯行为的增加”,包括儿童对兄弟姐妹或同学的性攻击。“儿童在小学阶段就接触到了色情内容,”报告称,“委员会担心许多年轻人生活中普遍存在的色情内容……包括暴力和厌女情绪的主题;真实的或暗示的缺乏同意;种族主义、同性恋恐惧症和跨性别恐惧症;以及非法主题,如虐待儿童和乱伦。”
报告还提到,“裸露”应用程序正给儿童带来创伤和痛苦,当他们的照片被从社交媒体账户或学校照片中提取并上传到深度伪造的性虐待图像中时。这篇文章最初发表于《澳大利亚人报》,标题为“深度伪造图像应用程序风险‘放大危害’”。
(以上内容均由Ai生成)