印度AI治理框架即将出台,鼓励创新与安全并重
快速阅读: 印度即将发布灵活自愿的AI治理框架,旨在促进创新与包容性,涵盖防止深度伪造、平台责任及高风险AI系统标准,总额1030亿卢比支持AI发展。
印度即将出台的人工智能(AI)治理框架将更加灵活自愿,而非强制性规定。政府旨在鼓励创新,而不是在新兴领域施加严格的合规要求。该框架还将体现印度使人工智能更具包容性和可访问性的理念,强调“一种被世界大部分地区接受的治理模式”。
据官员透露,该框架将重点关注三个核心领域:一是通过检测和水印协议,防止深度伪造和合成媒体的滥用;二是平台对有害内容迅速采取行动的责任;三是确保高风险AI系统的全球标准统一,以保障安全而不抑制创新。
数字战略
政府消息人士称,AI政策是更广泛的数字转型战略的一部分,还包括即将出台的《数字个人数据保护法》(DPDP)及其相关行业利益相关者的咨询。电子和信息技术部(MeitY)的附加秘书阿比谢克·辛格在印度移动大会(IMC)2025期间向《商业线报》表示:“框架即将发布……一切都准备好了。我们只需确定发布的日期——一旦有合适的时间窗口,就会公布。”
政府原计划于9月28日发布该框架,但为了与其他数字政策举措协调,已推迟公告。辛格指出,该框架主要作为负责任AI使用的指导,而非强制性规范。
主权AI
此外,在印度AI使命下,中央政府已拨款1030亿卢比用于构建主权AI能力。计划包括开发大型语言模型(LLMs)、扩展配备高性能GPU的AI计算基础设施、在全国建立超过500个AI数据实验室以及针对性技能培训项目。“我们已成立AI安全研究所,并正在开发偏见缓解、伦理认证和模型测试工具,以确保AI系统遵循负责任的AI指南。”辛格说。
他补充说,训练数据集的包容性将是减少偏见、避免幻觉或不当回应的关键重点。“这些模型一旦部署,将加快采用速度。”他还提到,政府正在支持初创公司开发能够在全球竞争的印度AI模型。
随着框架接近完成,印度似乎正采取一种平衡创新、安全和责任的治理方法,反映出其成为负责任AI发展领先中心的雄心。
(以上内容均由Ai生成)