Grace Tame 敦促政府将用于虐待儿童的 AI 工具定为刑事犯罪
快速阅读: 《ABC 在线》消息,澳大利亚年度人物格蕾丝·坦姆呼吁立法禁止AI生成儿童性虐待材料,称政府行动太慢。ICMEC建议监管AI工具,防止其被用于犯罪。警方需更有效利用AI识别受害者。(98字)
2023年澳大利亚年度人物格蕾丝·坦姆表示,迫切需要采取国家行动,防止人工智能工具被用于制作儿童虐待材料,并且该国必须将拥有免费可得的儿童剥削应用程序定为犯罪行为。包括坦姆女士在内的儿童安全倡导者今天将在议会大厦开会,以应对人工智能被用来性剥削儿童的问题,以及利用人工智能检测诱骗行为和儿童性虐待材料的机会。在墨尔本一家儿童保育中心再次发生令人震惊的虐待指控事件的一周内,政府如何保护儿童的问题受到关注,这次会议正是在此背景下召开的。坦姆女士因公开谈论自己遭受的虐待而声名鹊起,她表示政府行动太慢了。“我认为之前的政府以及不幸的是现在的政府,在涉及在线儿童安全时没有足够迅速地采取行动,”坦姆女士说。
性侵犯支持热线:1800 Respect
全国热线:1800 737 732
Lifeline(24小时紧急热线):131 114
Full Stop Australia:1800 385 578
Bravehearts:为儿童性虐待幸存者提供心理咨询和支持:1800 272 831
Child Wise:心理咨询机构:1800 991 099
国际失踪与受虐儿童中心(ICMEC)召集了议会圆桌会议,呼吁澳大利亚将持有或分发专门用于生成儿童性虐待材料(CSAM)的定制人工智能工具定为犯罪行为。类似立法已在英国提出,英国政府表示正在密切关注。情报公司Graphika于2023年底报告称,非自愿的生成式人工智能工具已从仅限于小众互联网论坛,发展成一种“规模化”的在线并盈利的业务。它发现这34种工具的网站有超过2400万次独立访问量,而这些工具的链接在Reddit、X和Telegram等平台上急剧增加。更糟糕的是,AI生成的剥削材料正在分散警方资源,使他们无法专注于真实受害者的调查。
“过时”的儿童安全计划并未提及人工智能
虽然持有CSAM是犯罪行为,但倡导者表示,澳大利亚应效仿英国和欧盟等其他国家,禁止人工智能工具本身。“这就是为什么这次圆桌会议如此重要……当我们查看2021年起草的国家儿童保护框架时,这是一个为期十年的框架,而人工智能的存在及其造成的危害实际上并未在该框架中提及,”ICMEC澳大利亚首席执行官科姆·加农说道。“必须制定法规,说明你需要防止这种情况发生,或者你的平台不能成为进入这些区域的入口。”“这种软件没有任何社会价值,应该对其进行监管并使其非法,拥有这些生成儿童性虐待材料的模型应被视为犯罪行为。”“这是迫在眉睫的事情。”加农表示,政府必须做更多工作来防止人工智能被用来虐待儿童,但也有机会利用人工智能协助执法部门。
坦姆表示,目前罪犯可以购买人工智能工具并下载到离线使用,这样他们制作不当材料就无法被检测到。“这就像一个西部荒野,根本不需要太多技术含量,”她说。
去年10月提交给政府的《在线安全法案》独立审查报告也建议,用于创建非自愿显性材料的“生成裸体图像”人工智能应用应被禁止。政府承诺采纳该审查的建议,要求平台承担“照护义务”以保护儿童,尽管尚未立法,该审查的其余66项建议也尚未得到回应。
在一份声明中,司法部长米歇尔·罗兰表示,利用人工智能促进儿童性虐待材料的创作令人作呕,“不能继续下去”。“我致力于跨政府合作,进一步考虑我们如何加强应对不断演变的危害。这包括考虑在高风险环境中对人工智能进行监管方法,”罗兰女士说。“澳大利亚有一系列法律来规范人工智能。这些包括针对在线安全的全国范围内的法律。”
司法部长米歇尔·罗兰表示,政府正在密切关注海外发展。(ABC新闻:马特·罗伯茨)
利用人工智能抓住更多罪犯的机会
倡导者还指出,政府可以采取哪些措施来消除限制执法部门使用人工智能工具检测和打击儿童虐待罪犯的障碍。自2021年以来,警察一直将面部识别工具的使用限制在调查儿童网络虐待上,当时隐私专员裁定Clearview AI通过未经同意从网络上抓取生物特征数据侵犯了澳大利亚人的隐私,并命令删除澳大利亚的数据并禁止该应用程序。
使用人工智能识别出可能的儿童虐待受害者照片显示一个人穿着连帽衫的黑暗轮廓。这些儿童的身份此前被认为是冷案——有些甚至已有几十年历史——由于执法部门没收的在线虐待材料中缺乏足够的可辨识线索,无法确认他们的身份。
加农先生是一位前专业调查员,曾参与国内和国际儿童性剥削案件,他表示,然而,执法部门可以使用现有的工具,同时保护澳大利亚人的隐私。“政府需要真正开始思考这样一个问题:我们如何实际为执法部门提供符合澳大利亚隐私法律的工具,以识别儿童性虐待受害者?”“我们不应该忽视利用人工智能帮助我们识别儿童性虐待受害者的概念。”“有一些解决方案可以实现良好的政府监督,让调查人员能够使用这些工具。”
Clearview AI继续被海外执法部门使用,以识别儿童虐待受害者和罪犯,但加农先生表示,存在一些解决方案,可以在允许调查人员使用该工具的同时实现“政府的良好监督”。他补充说,澳大利亚应与国际合作伙伴合作,协调其人工智能安全方法,以便明确设定开发者的期望。
执法部门与使用人工智能逃避正义的罪犯之间的较量
倡导者还警告说,不受监管的人工智能工具的传播使儿童性犯罪者能够扩大他们的犯罪行为。坦姆表示,监管人工智能工具的框架不仅适用于明显的有害应用程序,即使是主流人工智能聊天机器人也被罪犯用来自动化诱骗行为,并获得有关逃避正义或与执法部门交谈的建议。
“在我自己的经历中,对我实施侵害的那个人,一旦得知他被我高中停课,他就自己去了心理病房,”她说。“我们看到罪犯不仅在改进他们的方法……我们也看到他们在逃避正义方面的复杂程度。”
去年,政府承认现行法规不足以应对人工智能带来的风险,并将考虑“强制性保障措施”。上个月,eSafety专员表示,科技平台有责任保护儿童。
“虽然主要责任应由那些选择实施虐待的人承担,但我们不能忽视技术是如何被武器化的。科技行业必须承担责任,解决其产品和平台被武器化的问题,”专员写道。
(以上内容均由Ai生成)