印度法院引入AI工具,加速司法进程引发争议
快速阅读: 印度司法系统引入AI,用于实时笔录、法律研究和翻译,以解决案件积压问题。AI工具如SUPACE和Adalat.AI提高了效率,但也引发算法公平性、隐私和安全的担忧。
人工智能(AI)以史无前例的方式悄然进入印度的司法工作。AI可以在最高法院宪法法庭听证会上生成实时笔录,自动软件记录下庭审中证人的陈述。法官们甚至正在测试用于法律研究和翻译的AI工具,以应对多语言案件文件的检索。然而,这些测试是在司法资源紧张的情况下进行的,因此提出了一个核心问题:算法能否加速正义的实现,同时保持公平、透明度和人类的判断力?
印度有数百万案件积压,事实上,这一数字达到了数千万。为了解决这个问题,政府在最高法院和司法部的指导下,正在实施电子法院项目第三阶段,旨在通过机器学习和语言技术现代化案件的提交、管理和工作流程。预算中相当一部分被分配给未来的技术,如AI和区块链,这表明了一种政治上的赌注,即这些数字工具将在不违背只有法官决定案件的原则下缓解当前的延误。随着法院开始零散地采用AI,它们还需要设定问责制、隐私和自动化界限。
承诺:速度超越积压
AI的应用建立在早期数字化的基础上。自2007年实施电子法院以来,该项目引入了电子提交、数字案由表和在线判决,旨在使在线申请成为可能。第三阶段围绕着对现在数字化的司法信息进行自然语言处理和机器学习的解释展开。
一项关键创新是最高法院辅助法院效率门户(SUPACE),这是一个AI驱动的平台,使法官和研究人员更容易就处理大量案件记录做出知情的工作决策。SUPACE不作决定,它识别事实,提出先例,并起草大纲,减少了手动研究时间,使法官能够专注于法律推理。
语言访问也是一个主要问题。最高法院开发了法律翻译软件(SUVAS),将判决从英语转换为其他印度语言,而一些高等法院正在测试将地方语言的判决转换为英语的工具。AI驱动的转录也在改变记录维护方式。最高法院自2023年起启动了宪法事务的自动转录,自此产生了几乎实时且可搜索的文字记录。
2025年,喀拉拉邦高等法院作出了一项重要指示,命令所有下级法院从2025年11月1日起使用AI支持的语音转文本工具Adalat.AI记录证人陈述。该工具由一家与哈佛大学和麻省理工学院等研究机构有联系的初创公司开发,取代了缓慢的手写笔记,实现了即时数字转录。如果系统失败,法官只能使用高等法院信息技术局审查的替代平台,从而确保敏感音频处理的控制。
官员们将这些改革描述为朝着更高效和透明司法系统的步骤。政策文件强调AI在减少转录过程中的人为错误、自动检测电子提交过程中的基本错误以及帮助超负荷工作的法官优先处理紧急案件方面的潜力。司法改革评论者认为,如果谨慎实施,此类系统可以缩短听证会时间,提高笔录和翻译的准确性,并让诉讼当事人,尤其是那些位于偏远地区且法律资源稀缺的当事人,更好地了解其案件的进展。
担忧:当算法笼罩司法思维
尽管充满乐观情绪,法官和学者也表达了担忧。2023年,德里高等法院在一个商标案件中拒绝考虑依赖于ChatGPT的论点,理由是大型语言模型可能会伪造案例引用和事实,其输出需要独立验证。
在另一案例中,同一德里高等法院的法官允许购房者撤回请愿书,因为他们在使用ChatGPT生成的部分诉状中发现了不存在的案例和错误引用的陈述。法官批评了未经验证的生成式AI的使用,称这种做法可能会误导法庭。这一事件反映了AI在司法系统内使用时速度与准确性的权衡所带来的职业风险。
黑箱问题远不止于此。
使用AI工具进行搜索、总结或转录可以依赖于不透明模型。当SUPACE关注某些先例时,法官和诉讼当事人无法了解这些案例是如何被优先考虑的。学者警告称,这种不透明性使得错误难以发现,并可能微妙地影响司法思维,如果算法建议被视为“中立”的话。
另一个危险是偏见。印度判例法如同社会一样存在不平等,因此,用于训练AI的数据集可能也带有基于种姓、性别、阶级或宗教的歧视模式。分析人士警告说,AI将以提高效率之名强化这些偏见。包括印度首席大法官在内的资深法官承认,当AI的不透明性依然存在或其训练数据不具备代表性时,AI可能会“放大歧视”。
隐私和安全问题也随之增加。司法记录包含大量敏感个人信息,如刑事指控、财务状况和医疗细节。所有来自法院(例如喀拉拉邦高等法院)的指南都反对将此类数据上传到公共云工具。《2023年数字个人数据保护法》适用于自动化处理,涵盖了许多在法庭上使用的AI工具。在没有专门AI法律的情况下,法院和开发者必须遵循保密和数据保护规范的拼凑体系。
进一步的担忧是“自动化偏见”,即人类无意识地过度信任计算机输出。学者认为,例如,当AI向法官呈现适用的先例或案件优先级时,在工作压力下,法官可能会不自觉地重新考虑某个问题。随着系统的无缝融合,唯一能防止AI从工具演变为司法决定的隐形合作者的因素将是严格的司法纪律干预。
寻求中间道路:监督而非放弃
司法系统正在尝试在案件负荷需求与伦理保障之间找到平衡。在这方面,喀拉拉邦走在了前列,不仅强制使用Adalat.AI,还发布了针对下级法院的全面AI政策。该政策将AI视为转录和翻译的行政工具,禁止生成式AI撰写判决书或做出结果预测,建议法官严格评估AI输出,并禁止使用需要上传机密信息的外部平台。
在国家层面,最高法院成立了AI委员会,以评估其工具并将其整合到所有法院的信息技术系统中,特别是与印度理工学院马德拉斯分校等机构建立合作关系。政府声明表明,正在制定一项与伦理和隐私指南相协调的统一AI使用政策。当局强调,只有在“有人类监督、伦理监督和隐私保护”的情况下才会接受AI,且只有法官有权签署命令。
然而,印度目前还没有全面的AI法律。一些规定可以在法院通告、数据保护法规和一般技术政策中找到。关于司法廉洁的研究建议定期审计偏见,每当AI影响文件提交或决策时进行强制披露,并为诉讼当事人提供挑战影响其案件的AI工具的方式。专家强调,需要改善审判法院的技术基础设施,对法官进行质疑AI输出的培训,并对公众进行有关这些工具能做什么和不能做什么的教育。
如今的主要挑战不再是采用AI,而是如何与其共存。诸如积压案件、语言障碍和获取法律信息的不平等等问题都可以通过AI工具得到缓解。然而,不可否认的是,日常司法程序中使用不透明算法可能会降低其责任性。目前看来,印度的法官们似乎决心保持人类的主导地位,将AI视为助手而非神谕。这种平衡能维持多久将决定不仅司法效率的提高程度,还有公众对这一过程的信任水平。
(以上内容均由Ai生成)