印度政府发布新规,打击Deepfake和合成信息
快速阅读: 印度政府发布《信息技术规则》2021年修正案草案,首次定义“合成信息”,要求所有合成内容强制标记并嵌入元数据,以增强透明度和责任,公众可于11月6日前提交意见。
印度政府在规范人工智能(AI)使用方面迈出了正式的第一步,发布了《信息技术(中介指南和数字媒体伦理守则)规则》2021年修正案草案,旨在为合成信息(包括深度伪造)建立法律框架。电子和信息技术部(MeitY)已通知该草案,并邀请公众于11月6日前就拟议变更提供反馈。
政府表示,这些修正案旨在确保“开放、安全、可信且负责任的互联网”,以应对生成式AI工具的快速崛起及通过合成内容误导、冒充或操纵的风险日益增加。该部指出,深度伪造视频和AI生成内容的激增显著提高了危害潜力,从传播虚假信息、操纵选举到冒充个人或创建非自愿亲密影像等。
认识到这些风险并在公共咨询和议会讨论之后,MeitY提议加强中介(尤其是社交媒体中介、重要社交媒体中介及促进合成媒体创建或修改的平台)的尽职调查义务。草案首次定义了“合成信息”,即“通过计算机资源人工或算法创建、生成、修改或改变的信息,其形式合理地显得真实或准确”。
规则明确规定,用于非法行为的“信息”将明确包括此类合成内容。为了确保透明度和责任,修正案提出所有合成内容必须强制标记并嵌入元数据。创建或修改AI生成媒体的中介必须确保此类内容携带永久且独特的元数据或标识符,无法移除或更改。此标签需显眼展示或可听,至少占据视觉显示区域的10%,或音频内容的前10%,以便用户立即识别内容为合成。
重要社交媒体中介还将面临更多责任,要求用户声明上传内容是否为合成生成,并采取合理适当的技术措施验证这些声明。一旦确认内容为合成,平台必须清楚显示适当的标签或通知,表明其为合成内容。未能针对违反这些规则的合成信息采取行动将被视为尽职调查的缺失。
修正案进一步规定,中介基于投诉善意移除或禁用合成信息将继续享有《信息技术法》第79(2)条下的免责保护,即对第三方内容的免责。
MeitY表示,制定这一法律框架的理由源于近期深度伪造媒体被用于损害声誉、传播谎言、影响选举或实施欺诈的事件。全球政策制定者对这种越来越难以与真实材料区分的伪造内容表达了担忧,认为其威胁到了公众对数字信息生态系统的信任。这些问题已在印度两院进行了辩论,促使该部向中介发出早先的建议,要求加强对深度伪造的控制。
政府称,拟议的规则将为AI生成内容的标签、可追溯性和责任建立明确的法律基础。这些规则旨在通过要求透明度而不抑制技术创新来平衡用户保护和创新。如果采纳,这些修正案将使印度成为首批专门针对合成和AI生成信息立法的国家之一。
该框架旨在赋予用户辨别真实内容与被操纵或伪造材料的能力,同时确保托管此类信息的中介和平台承担责任。MeitY已邀请利益相关方和公众通过电子邮件向itrules.consultation@meity.gov.in提交关于草案规则的意见或建议,截止日期为11月6日。
Gartner副总裁分析师阿基夫·汗表示,这项法律是朝着正确方向迈出的一步,特别是在要求社交媒体平台对其用户发布的内容进行标签方面。然而,他指出,使用“合理和适当的技术措施”的说法具有一定的解释空间。
此外,他还指出,管辖权和适用性的传统挑战依然存在,质疑该法律是否会延伸至印度公民可能看到的其他国家用户的社交媒体帖子。
“为了使法律在印度背景下产生预期的积极影响,这些挑战需要得到解决。”他补充道。
谁来监督?
电子和信息技术部(MeitY)的审查还建议加强高级别问责制,精确识别非法内容,并定期审查政府指令。
修正案规定,只有不低于联合秘书(或相当于主任或同等职务,如果没有联合秘书任命)级别的高级官员才能向中介发出删除通知。对于警察部门,只有经过特别授权的副督察长(DIG)才能发出此类通知。
这些通知必须提供明确的法律依据,指明违法行为并确定要删除的具体内容,以替代《信息技术法》第79(3)(b)条下的先前广泛引用的“有理由的通知”,官方声明称。
所有根据规则3(1)(d)发出的通知将由不低于相关政府秘书级别的官员每月审查一次,以确保其必要性和适当性。
修正案旨在平衡公民权利与国家监管权力,确保透明和精准的执法。
在领英(LinkedIn)上,前电子和信息技术部高级总监兼网络法律、网络安全和数据治理小组协调员马赫什瓦里(Rakesh Maheshwari)表示,修正案带来了谁可以发出下架通知所需的明确性。
他还补充说,一些监督机制也已到位,以确保适当的问责,并可能继续跟进。
“我认为,此前各机构/州政府指定多名官员并由各级政府(包括州政府)发布的通知现在将被重新审查。”他说。
需要进一步完善
网络法律倡导者马利(Prashant Mali)欢迎修正案应对深度伪造风险。
“问题始终隐藏在算法中,”他指出,需要明确的标准和谨慎实施,以平衡创新与监管。
他认为,要求在AI生成媒体上标注10%可见标签虽然旨在透明度,但可能会妨碍生成式AI的美学或艺术用途。
他建议采用适应性水印,符合ISO/IEC 23053和W3C出处标准,作为更加灵活的替代方案。
马利观察到,要求用户声明所有合成内容可能导致合规疲劳,规则应区分AI辅助编辑和完全AI生成的伪造内容。
他还警告了跨境可追溯性问题,指出深度伪造不受国界限制,印度应与布达佩斯公约原则保持一致,并寻求相互法律援助协议,以处理合成媒体犯罪。
如果审慎地进行完善,他认为这些规则可以使印度成为负责任AI治理的模范司法管辖区。
(以上内容均由Ai生成)