澳洲E安全专员警告:Deepfake应用将加剧网络危害
快速阅读: 澳大利亚E安全专员警告,新AI平台使生成色情深度伪造图像更易,加剧在线危害。自OpenAI Sora 2推出,深度伪造图像滥用报告翻倍,学校每周至少一例,预计投诉增加。
澳大利亚E安全专员朱莉·因曼·格兰特表示,一款新的AI平台将使澳大利亚人更容易生成色情深度伪造图像,这将使“潜在的在线危害加剧”。她指出,自OpenAI的Sora 2平台推出以来,该平台可以在几秒钟内创建超逼真的20秒视频,预计关于生成图像的投诉数量将会增加。
因曼·格兰特在黄金海岸表示:“过去18个月里,我们收到的深度伪造图像滥用报告翻了一番。”她还提到,澳大利亚学校每周至少发生一次深度伪造滥用事件。“尽管这只是我们基于图像的虐待报告的一小部分,但这只是冰山一角。这是一个真正令人担忧的问题,这将使潜在的在线危害加剧。”
因曼·格兰特认为,OpenAI的Sora 2平台的发布可能会导致有关生成图像的投诉增多。图片:NewsWire / Martin Ollman
然而,这款平台不会被纳入阿尔巴内塞政府即将于12月10日生效的世界首个针对青少年的社交媒体禁令范围之内。电子安全委员会正在对一家位于英国的公司采取行动,该公司负责开发一些最受欢迎的脱衣应用程序。
新南威尔士州议会周五发布了一份关于有害色情内容影响的调查报告,警告了AI生成图像滥用的危险。报告显示,年仅10岁的儿童已经开始在网上观看色情内容。这导致了“性侵犯行为的增加”,包括儿童对兄弟姐妹或同学的性攻击。
报告指出:“孩子们在小学阶段就开始接触色情内容。委员会对许多年轻人生活中普遍存在色情内容表示担忧,以及其中涉及暴力、厌女、实际或暗示性的缺乏同意、种族主义、同性恋恐惧症、跨性别恐惧症和非法主题,如儿童虐待和乱伦。”
报告还提到,“裸露”应用程序给儿童带来了创伤和痛苦,当他们的照片从社交媒体账户或学校照片中被提取并上传到深度伪造的性虐待图像中时。
本文最初发表于《澳大利亚人报》,标题为“深度伪造图像应用程序风险‘加剧危害’”。
(以上内容均由Ai生成)