人工智能在司法决策中的作用
快速阅读: 据《CLS 蓝天》称,研究表明,AI系统如GPT-4在司法决策中表现出严格的法律形式主义,不受被告同情影响,与人类法官和法学院学生形成对比。尽管AI在规则应用上有潜力,但在细微判断和非法律因素考量方面存在局限。因此,AI更适合辅助人类法官,而非完全取代他们。这项研究强调了人类法官的独特价值,认为AI应支持而非替代人类司法决策。
人工智能能否取代人类法官?这一曾经局限于科幻领域的议题,随着人工智能系统的日益复杂而变得愈发相关。埃里克·波斯纳和什瓦姆·萨兰的一项新研究通过在一个精心控制的实验中对先进语言模型GPT-4进行测试,为这一问题提供了洞见。该研究的方法简单而优雅。研究人员使用了前南斯拉夫国际刑事法庭的一个真实战争罪案例,并创建了两种关键因素的不同版本:被告的同情描绘和法律先例的方向。这种实验设计此前已被用于研究联邦法官和法学院学生,为衡量AI表现提供了宝贵的基准。[启发我们实验的原始研究是由霍尔格·斯帕曼和拉斯·克伦撰写的。]
结果显示了一种显著模式。GPT-4表现出严格的法律形式主义倾向,忠实遵循法律先例,同时不受被告同情或不同情描述的影响。这种行为与人类法官形成鲜明对比,人类法官在判决时表现出对被告性格的显著敏感性,但较少受制于先例。有趣的是,GPT-4的决策模式更接近于法学院学生而非经验丰富的法官。AI与法学院学生的这种一致性引发了关于司法智慧本质的重大问题。如果我们接受经验丰富的法官通常比法学院学生更擅长其工作这一前提,那么GPT-4与学生而非法官的相似性表明其在司法决策能力上存在显著局限。AI似乎缺乏从多年的司法实践中获得的细微判断力——即知道何时严格遵守先例可能产生不公正结果的能力。
研究人员试图引导GPT-4表现得更像人类法官的努力揭示出一些信息。尽管采用了各种复杂的引导策略——从要求它预测一个法官小组的裁决到明确指示它考虑同情因素——GPT-4仍坚定地采取法律形式主义立场。即使承认同情因素,它也会将其视为法律无关紧要的因素。这表明AI的形式主义倾向深深植根于其架构中,而不仅仅是可以通过不同指令修改的表面行为。
这些发现指出了AI在司法决策中的潜力和局限。一方面,GPT-4对先例的一致应用和对法定要求的全面考量展示了其在某些法律环境下的潜在价值。在严格规则应用是理想选择且人类情感可能干扰判断的情况下,它特别有价值。[然而,我们怀疑这样的案件是否很多。]另一方面,它无法合理权衡非法律因素或适应不断变化的社会环境,表明它不能完全复制人类法官的角色。
这项研究最有价值的见解之一在于它揭示了司法决策的本质。经验丰富的法官经常偏离严格的法律形式主义这一事实表明,这些偏离不是司法过程的缺陷,而是其不可或缺的特征。人类法官能够平衡法律规则与更广泛的正义和社会背景考量,这可能是他们成为有效仲裁者的关键所在。这表明未来AI可能会补充而非替代人类法官。AI系统可以处理常规的、基于规则的决策,或者通过提供详尽的法律研究和分析来辅助法官。然而,在需要细微判断或考虑非法律因素的案件中,人类法官将保留最终决定权。
该研究最终验证了首席大法官罗伯茨对AI取代人类法官的怀疑。他曾在2023年写道:“我预测人类法官将在很长一段时间内存在。”但原因不仅仅在于技术限制。挑战不仅仅在于当前AI不够成熟——更重要的是,司法决策的本质可能需要一种AI本质上无法复制的人类形式的判断。这一结论对如何看待司法决策和人工智能具有重要意义。它表明AI在法律系统中的目标不应是完全复制人类司法决策,而应以尊重人类判断独特价值的方式支持和增强它。随着我们在法律环境中继续开发和部署AI,保持这种观点对于确保技术服务于正义而非仅仅提高效率至关重要。
本文来自芝加哥大学法学院的埃里克·A·波斯纳和什瓦姆·萨兰。基于他们的最新论文《法官AI:评估大型语言模型在司法决策中的作用》,可在[此处]获取。
(以上内容均由Ai生成)