人工智能值得在加拿大的法庭上占有一席之地吗?
快速阅读: 据《BNN 彭博社》最新报道,2023年,加拿大出现多起法律案件因使用生成式人工智能产生虚假判例法,引发法律界的关注。虽然多地法院出台规则规范AI使用,但仍存滥用风险。法律专家呼吁加强透明度与人工审核,确保司法公正。
温哥华——弗雷泽·麦考恩认为这些判例法看起来非常真实。那是2023年12月,这位温哥华的家庭法庭律师正在审阅对方律师钟柯提交的申请中的引文,钟柯希望获得一项允许她的客户的子女前往中国探望他的命令。“我第一次在法庭上读到它时,里面提到了两个关于出国旅行和维护儿童文化联系的案例,”麦考恩说,起初他认为这些判例法难以反驳。但这些案例并非真实存在,而是由生成式人工智能工具ChatGPT生成的虚假判例法,钟柯承认自己使用了这个工具来准备向不列颠哥伦比亚省最高法院提交的申请。“一开始,这些摘要看起来100%真实,”麦考恩回忆道,“那天我在法庭上读到它们的时候,根本不知道这些是假的。”
这起张诉陈案不仅导致钟柯受到法官的批评,还触发了不列颠哥伦比亚省律师协会的调查。随后,这一案件在整个加拿大的法律界引起了广泛关注,因为它权衡了允许人工智能进入法庭的潜在风险——例如虚假判例法或深度伪造证据——与减轻工作量和改善司法公正的承诺之间的利弊。
自那以后,在一系列其他法律场所中引用的判例法中也发现了更多疑似的人工智能生成的虚假判例法——包括不列颠哥伦比亚省人权仲裁庭案件、联邦商标异议委员会的两起争议,以及不列颠哥伦比亚省民事解决法庭的小额索赔案件。
加拿大各地的法院和律师协会已经发布了关于律师和法庭工作人员使用人工智能的指示。但这些规则和指南并不一致,有些人怀疑它们是否被普遍遵守。一些法院,包括阿尔伯塔省和魁北克省的法院,实行“人工审核”的规则,即人工智能生成的提交内容必须由某人验证,而许多法院要求如果使用人工智能准备提交内容,则需要声明。
加拿大各地的法院和律师协会已经发布了关于律师和法庭工作人员使用人工智能的指示。但这些规则和指南并不一致,有些人怀疑它们是否被普遍遵守。2023年12月——大约在麦考恩的办公室告知钟柯她的生成式人工智能生成的判例法无法找到后的一周——联邦法院发布了一项通知,告知诉讼当事人如果在法院文件中使用人工智能“创造或生成新内容”,则必须予以声明。法院还表示,在未进行公众咨询之前,它不会使用“自动化决策工具”来协助做出裁决。
法院可能试图划出一条界限,但人工智能的好处表明,它可能无法阻止某些任务在律师事务所中的应用。曼尼托巴大学温尼伯分校的助理法学教授凯蒂·斯齐拉吉说,许多律师已经在广泛使用生成式人工智能来提高诸如起草备忘录等简单重复工作的效率。“它们肯定会被使用,而且已经被广泛使用。在这个法律科技领域有大量投资,”她说。
加拿大律师协会去年秋天发布了全国指导方针,敦促谨慎行事,并建议律师将人工智能“作为工具,而不是在提供法律服务时依赖的拐杖”。它指出,律师应“考虑披露是否打算使用生成式人工智能,并解释该技术将如何被使用”,例如研究、分析、文档审查或庭审准备。“重要的是要确保律师负责任地使用技术,并清楚其局限性、优点和不足之处,”斯齐拉吉说。她表示,使用人工智能的律师还必须平衡职业道德义务,如律师-客户保密特权。“有可能你分享的信息会以某种违反你的职业道德义务的方式存储在某个服务器上,这会导致敏感信息的隐私泄露,”她说。
不列颠哥伦比亚大学的法学教授本杰明·佩林已经开始讲授一门关于人工智能在刑事司法系统中应用的课程。他说,“法律领域的风险很高”,因为人工智能提供了减少工作量、提高效率和改善司法公正的潜力,但也引发了公平性、偏见、透明度以及保护司法独立性的担忧。“在刑事司法系统中采用人工智能技术确实有充分的理由保持谨慎,”佩林谈到这一点时说,“在已有问题和缺陷的系统之上叠加人工智能,可以说是灾难性的配方。”
是否存在“人工审核”?
法庭上人工智能最显著的失败发生在钟柯在不列颠哥伦比亚省的失误前约七个月,即美国的马塔诉哥伦比亚航空公司案。乘客罗伯托·马塔正在起诉哥伦比亚航空公司,称其在飞行过程中受伤。但马塔律师的提交内容充斥着由ChatGPT生成的虚假判例法。从那以后,在澳大利亚、英国及其他地方也出现了类似的情况。
斯齐拉吉说,使用人工智能可能会帮助律师处理简单重复的工作,但他们必须始终警惕自动化偏见——即相信技术在智力判断上是绝对准确的。她说,一个解决方案是遵循“人工审核”的原则来验证判例法。
不过,维多利亚市司法公正卓越中心的人工智能风险与监管实验室研究员丹尼尔·埃斯科特表示,需要更多的检查与制衡机制,以确保律师不会过度依赖人工智能而损害客户利益。
斯齐拉吉说,使用人工智能可能会帮助律师处理简单重复的工作,但他们必须始终警惕自动化偏见——即相信技术在智力判断上是绝对准确的。他还质疑律师是否严格遵循法院制定的规定。
联邦法院首席大法官保罗·克拉姆顿在2024年2月告诉加拿大律师协会播客主持人,在实施人工智能声明规则后,法院收到的近28,000份法律文件中,“只有三到四份”被指涉及使用人工智能。
埃斯科特说:“这不符合实际情况。”
“如果你查看联邦法院的文件,一些小律所提交的文件量远超大律所,”他说。
他还指出,自诉当事人似乎更倾向于声明自己使用了人工智能。
“正义系统的用户在使用人工智能方面似乎比律师更少遇到透明度问题,”他说。
然而,他提到,人工智能的一个优势是它为改善司法公正提供了机会。
佩林也表示认同,他说大多数加拿大人负担不起律师费用,因此人工智能可能有助于起草法律论点,但也存在被法官拒绝的风险。
但佩林指出,法官最关心的是伪造证据。
他说,随着辨别照片、文件、音频和视频真实性变得愈发困难,数字证据的保管链变得更加重要。
“我认为我们在证明方面进入了新阶段,”他说,“当我们无法确定所见所闻的真实性时,如何证明事情的真实性,因为这些内容可能由人工智能工具伪造?”
安大略省上诉法院法官兼民事规则委员会人工智能分委会主席彼得·劳厄斯表示,这是人工智能的一大担忧——“我们不能误用虚假信息。”
“这包括幻觉判决,”他说,并补充说安大略省正在准备规则以应对深度伪造威胁法庭的担忧。
他说,这些规则将包括识别用于创建人工智能生成内容的软件程序,并提供显示输出有效性和可靠性的证据。
劳厄斯以事故重建为例说明人工智能如何可以在法庭上成功应用。
“你可以使用这种软件和专业知识来模拟某一时刻发生的情况,”他说,“所以我们有理由相信这类人工智能生成的证据是可靠且可信的。”
但总体而言,劳厄斯表示,普遍认为人工智能在法庭上“尚未完全成熟”。
“法律领域的人工智能被过度宣传,它承诺过多而交付不足,”他总结道。
“巨大警钟”
至于法官使用人工智能的问题,加拿大司法委员会已表明其决策权不应交给人工智能。
加拿大首席大法官理查德·瓦格纳在10月份的一份新闻稿中表示,法官必须“对自己的决定承担独家责任”。
“人工智能不能取代或委托司法决策,”瓦格纳说,“同时,理事会的新指南承认可能存在负责任地利用人工智能支持法官的机会。”
指南指出,任何在法庭申请中使用的AI工具都应能为其决策输出提供可理解的解释,且法院应定期跟踪AI使用的影响力。
在BC省,麦克莱恩说张诉陈案堪称“巨大警钟”,此后在涉及人工智能幻觉的其他案件中也被引用。
“这些人工智能幻觉令人恐惧之处在于它们不是模糊的引文和摘要,而是看起来100%真实,”麦克莱恩说。
“这就是为什么法官和律师需要警惕并仔细核对这些内容的重要性。”
凯在裁决中引用的一封邮件中说,她在准备提交材料时使用了ChatGPT提供的案例法建议,而未进行核实,因为她“不知道这两个案例可能是错误的”。
BC省律师协会表示,该案件的调查已经结束,“提出的担忧已与律师解决”。
凯无法对此发表评论。
麦克莱恩说禁止人工智能不是答案,而是建议律师事务所实施要求透明度的政策,并让律师接受识别人工智能幻觉的培训。
那么风险呢?麦克莱恩说张诉陈案中的法官大卫·马苏哈拉说得最好。
“在法庭文件和其他递交给法庭的材料中引用假案例属于程序滥用,等同于向法庭作出虚假陈述,”马苏哈拉在他的2024年2月裁决中写道。
“如果放任不管,可能引发司法不公。”
加通社的这篇报道首次发布于2025年3月29日。
布里安娜·夏尔博瓦,加通社
(以上内容均由Ai生成)