副总统 Dhankhar 强调需要 AI 监管、透明度和道德保障
快速阅读: 《AniNews.in》消息,印度副总统达汉卡尔强调在人工智能监管与创新间取得平衡,呼吁透明的全球策略保障公共安全与伦理应用,同时关注监管机制对普通公民的保护及网络主权的维护。
新德里(印度),4月5日(ANI):副总统贾格迪普·达汉卡尔在《人工智能在审判中》新书发布仪式上强调了在人工智能监管与创新之间取得平衡的重要性,警示人们关注人工智能的风险,并呼吁采取透明的全球策略,以保障公共安全、法律明确性和人工智能的伦理应用。
达汉卡尔副总统在副总统官邸参加了由联邦院议员苏杰特·库马尔所著的《人工智能在审判中》新书发布会。达汉卡尔副总统强调了在人工智能监管与推动创新之间找到恰当平衡的必要性:“人工智能的监管将塑造我们想要成为的社会类型。它已成为决定我们未来的最重要因素之一!我们是否愿意生活在一个人类为算法服务的数字反乌托邦中,还是成为一个以人为本的印度社会,让技术服务于民众?这个选择在于我们。这个选择已广为人知。”
达汉卡尔副总统指出:“监管人工智能是一项艰巨、令人畏惧但必不可少的任务。我们必须在人工智能监管与推动创新之间找到恰当的平衡。这是至关重要的。过度监管可能像过度约束孩子一样抑制创新。我们不应阻碍创业精神的发展。但同时,我们必须充分意识到其潜在的负面影响。监管不足可能威胁公众安全,加剧偏见并损害信任。”
“要监管如此动态的人工智能,我们需要一个灵活且强有力的机构框架。一个独立但对政府、产业、学术界和社会各界负责的国家级人工智能机构或委员会可作为智库。因此,我们必须设计监管措施,使其成为一种支持体系,而非束缚。我们的目标应是构建一个框架,使负责任的创新得以蓬勃发展,而有害的设计被消除。基于风险、行业细分和原则导向的方法在此方面可能大有裨益。例如,用于医学诊断的人工智能所需审查的严格程度应不同于用于生成社交媒体内容的人工智能……普通公民因人工智能受到影响必须成为监管制度的核心。普通人难以独自解决问题。系统必须自动为普通公民提供内置救济。为了保护我国公民免受人工智能的危害,我们需要可执行的权利,比如解释权和对自动化决策提出异议的权利。如何对自动化决策提出异议,我们尚不明确,以及在生计、自由和尊严受决策影响时有权选择退出算法处理。”
副总统补充道:“我们必须极其谨慎。人工智能这头‘ genie ’已经脱离掌控,它可能极具破坏性。如果不加以监管,它可能引发混乱。在深度伪造、深层国家运作、觉醒主义等令人不安的现象中,如果不对其加以监管,这些现象可能愈演愈烈。简单来说,对于年轻人而言,核能可以提供动力。核能可以点亮房屋并驱动工业,但它也可能带来破坏,因此我们面前存在两种可能。”
他进一步表示:“人工智能的监管必须高度透明。它必须与重新技能培训和劳动力规划同步推进。由于人工智能将取代某些工作,它已经走进家庭,进入办公室。有时它能比普通资源更高效地完成任务,于是会产生一种担忧,即我们是否会失去从事这些工作的人员?也许在这种情况下,我们需要加大对教育、职业培训和数字素养的投资,特别是针对那些边缘群体、弱势群体和需要帮助的人群。”
强调网络主权的关键性,达汉卡尔副总统表示:“我们必须像维护传统主权那样维护印度的网络主权,但我们必须与国际标准保持一致。在这种情况下不可能存在孤立的行为。必须实现全球一致性。所有利益相关方必须汇聚一堂,以便在人工智能领域构建基于规则的全球秩序。”
达汉卡尔副总统表示:“人工智能给我们带来了紧迫的局面。它迫使我们重新审视现行的法学理论。当自主系统实施行动时,传统的法律概念如责任或甚至人格都受到挑战。人工智能的不透明性挑战了法律透明性和问责制原则。将法律解释交给不可解释的系统会削弱司法信任。如果我们使用现有的法律人工智能,我们会发现一个问题。它缺乏全面的监管和监督。亟需制定标准和保障措施,以防止无监管的人工智能带来的后果。关于人工智能是否促进法律一致性或延续历史偏见的争论仍在持续……正义面临巨大风险;当缺乏人性特质的算法影响法律时,正义就面临威胁,机器人化的判决是不可行的。有时,这种差异甚至难以被人工智能察觉。只有法官那善于判断的大脑,才能找到解决之道。”
强调有意义同意的关键性,达汉卡尔副总统指出:“我们的《数字个人数据保护法》是一项里程碑式的举措,但现在必须与人工智能监管同步推进。同意必须有意义;律师们深知这一点。非自愿的同意在法律上无效,自由意味着真正自主地给予同意。同意不应隐藏在晦涩的服务条款中。我有时惊讶当我使用手机并进入某款应用,不知不觉间,我被迫同意。现在处于完全无助的状态下,你被迫认同了一个非常私人的立场。不知不觉中,你被诱导或被迫接受,这种利用难以奏效。匿名化、数据最小化和目的限制必须严格遵守。”
(ANI)
(以上内容均由Ai生成)