学者 Amlan Mohanty 表示,需要印度 AI 风险框架
快速阅读: 据《经济时报》称,专家呼吁加强AI自我监管,建立风险分类机制,强调需结合印度本土情况。研究建议采用自愿承诺和激励措施,推动负责任的AI发展。
随着新的AI工具不断涌入市场,专家们呼吁加强自我监管,以确保安全和负责任的使用,并由风险框架、政府支持和行业责任来支撑。印度理工学院马德拉斯分校负责任人工智能中心(CeRAI)的副研究员阿兰·莫汉蒂强调,需要建立基于风险的分类机制。他表示,这将确定哪些AI系统属于“低风险”和“高风险”。莫汉蒂同时也是卡内基印度研究院和尼提阿亚格的兼职研究员,曾担任谷歌在印度的政策事务负责人,他补充说,在印度收集与AI相关的实际案例数据对于制定这些框架至关重要。在他的最新论文《让AI自我监管发挥作用——印度关于自愿AI风险缓解的视角》中,莫汉蒂概述了印度的一个实用政策路线图,他认为自愿或自我监管框架可以在不抑制创新的情况下帮助管理AI风险。“我的建议是为所有类型的AI应用设立基础性保护措施,而高风险的应用应受到额外规则的约束,”他对《经济时报》表示。
研究解释称,如果一个AI应用对个人的生命或生计造成伤害或损害,它应被认定为高风险。瓦德哈尼数据科学学院负责人B·拉维德拉表示,必须在整个生命周期中管理AI的风险。“参与AI开发的组织应积极采用自愿自我监管,以安全、道德和负责任的方式推动印度的AI采用,减少对人类的负面影响,”他表示。尽管政府尚未正式提出自愿的AI风险承诺,但由首席科学顾问牵头、电子与信息技术部(MeitY)召集的委员会起草的草案报告《印度AI——适合印度的监管框架》指出,自愿承诺在AI治理的早期阶段可能发挥关键作用。
定义风险,印度方式
该论文中的一个主要论点是,印度需要自己的AI风险分类定义,这些定义受本土、社会和文化因素的影响。“印度人是否像欧洲人那样担忧基于AI的监控?可能不是。这就是为什么不能直接适用欧盟《AI法案》中的风险分类到印度法律中。我们需要从当地社区收集真实案例数据,”莫汉蒂说道。研究强调,报告AI相关事件将有助于查明造成伤害的原因,并评估影响的性质,无论是身体上、情感上、财务上还是其他方面。这种以事实为依据的方法将是设计情境适应性和有效性的AI风险分类系统的关键。
专家建议采用金融、技术和监管激励手段,以鼓励采取自愿的AI承诺。例如,申请印度人工智能计划资助的企业可能需要将特定的AI承诺作为获得支持的条件。利用拟议中的印度AI安全研究所来塑造行业行为、制定基准并推广AI安全方案也被视为至关重要的举措。专家表示,建立技术顾问委员会可以为政府机构提供宝贵的专业知识,促进风险评估和支持合规工作。
虽然印度在AI监管方面的做法是促进创新的,但每个国家都会根据自身优先事项来调整其策略。美国采用的是去中心化、分行业的做法;中国则强调集中化的信息和内容控制。欧盟已制定了《AI法案》,该法案对AI设定了基于风险的法律义务。
(以上内容均由Ai生成)