AI 会让法律界“愚蠢”吗?
快速阅读: 据《人工律师》称,人工智能在法律领域的应用虽有益,但需警惕过度自动化导致人类判断力缺失。作者强调,应保持人类监督,确保公正与责任。
作者:理查德·特罗曼斯,人工智能律师。本网站强烈支持在法律领域使用人工智能。但是,我们不应回避一些艰难的问题,例如:人工智能会让法律界变得平庸吗?这个问题有两个主要方面:一方面是个别律师因为将他们的思考、批判性思维、创造力和判断力外包而变得平庸;另一方面是由于端到端的自动化而缺乏高层次的人类监督,导致法律行业的整体流程变得平庸。重申一下:本网站100%支持在法律行业自动化许多事情——只要这是道德且合理的。但在存在系统性风险的地方,我们必须非常谨慎。这是一条微妙的界限,随着世界迅速发展,我们可能会看到大量法律工作被自动化,但仍需保持人类的参与。一个简单的例子是“自动化法官”。我们现在能做到吗?可能可以,特别是如果结合新的推理模型并连接足够多的相关判例法的话。但我们应该这么做吗?人工智能律师认为不应该——甚至永远不会。为什么?因为如果我们把人类从这个过程中移除,而这件事是如此人性化……那么我们就会对社会运作方式做出某种改变,这可能会带来巨大的负面影响。(而且很难再改变回来……)让一位过度劳累的法官使用他们能用的所有AI工具来管理审判和所有相关数据,并探索相关案例,以帮助他们得出结论,这是否是一个好主意?是的。但是,这两者之间存在区别:一个是关于效率,以及帮助有技能的人达到能够应用其技能的程度——而不是被流程工作淹没。另一种情况则是,文明历经数千年发展出确保公正社会的技能,却因追求效率而被抛弃。当然,你可能会问:如果某个东西能正常运行,那完全自动化它有什么风险呢?确实,我宁愿坐自动驾驶的Waymo汽车,也不愿坐有人驾驶的汽车(尤其是最近的经历)。完全自动化法律工作又有什么害处呢?答案很微妙,归结为一点:你是否想要一个世界,在这个世界里,影响你个人以及整个社会的决定被外包给由你从未见过的人构建的系统,你无法控制它,也没有申诉的途径?也许是一个无名企业,它有自己的议程?但无论如何,我们正在将行使我们的法律权利委托给……?我个人更愿意选择一个我能直视其眼睛的人类法官。(至于Waymo自动驾驶汽车的部分,是的,这样的车辆在紧急情况下必须迅速做出判断,但我们不会去Waymo那里寻求离婚、雇佣诉讼或最高法院关于安乐死的裁决等判决。)自动化差异拼写检查可能并未对法律行业的工作方式产生任何根本性变化。文档自动化也是如此。使用NLP/ML查找尽职调查项目中的控制权变更条款也一样。但是,拥有生成式AI的能力,可以在几秒钟内根据事先同意的剧本和/或先例文件进行起草,或者通过您精心整理的数据进行深入的法律研究,或者仅仅是在法庭上与LLM一起头脑风暴结案陈词……现在,这就不一样了。为什么不一样?因为你在将部分深层次的思考、判断和有见地的批判性思维(即你大脑的高级功能)外包出去。发现拼写错误并不会调动人类大脑的高级功能。找到控制权变更条款(很少会被发现)会调动人类大脑的高级功能。但找到准确表达客户在合同中需求的方式,即使是一个相对“简单”的合同,也需要一定程度的高级功能,即使只是说“好的,继续吧”。在不到两年半的时间里,我们已经从与LLM进行一些问答,发展到开发能够自主行动的代理,再到如今增加“深度研究”,可以在几分钟内查阅三十余个来源,以得出对法律问题的仔细推理答案。这种能力只会不断增长,任何认为它不会迅速大规模发生的人将会措手不及。问题所在问题不在于人工智能的高生产率,或者能在8分钟内阅读一周的资料并提供复杂问题的合理答案,或者在5秒内起草某物,或者在1秒内标注修改内容……等等。真正的问题是我们正迅速接近这样一个点:人类律师会开始问自己:我有必要……吗?我有必要做什么?检查它。确保输出是我想要的。确信“我,一个活生生的、受监管的代表我的客户及其最佳利益的人”真的关心这一切是否正确。幸运的是,律师有义务关心他们的客户。此外,尽管这些工具正在飞速进步,但它们目前还不足以让律师彻底放手整个过程。但……这种情况会改变。然后挑战就变成了教育市场,使其能够处理涉及自动化他们过去所做工作的各种工作方式,同时重新强调保持“掌控”和提供关键判断的必要性。也就是说,即使是最勤奋的人也可能因为觉得自己已经“处理好了”而陷入一种疏离的状态。如果人工智能的进步导致律师不再检查事情,不再对法律流程的结果感到个人责任的痛苦,那么我们就麻烦了。因此,重申一下:我们应该自动化一切我们能做的、合乎道德的事情吗?是的。但这是否意味着法律行业就可以免除保护客户的相同责任?不。事实上,这反而会增加这种责任,因为在这样的世界中,自满的风险会上升。如果人工智能的进步导致律师不再检查事情,不再对法律流程的结果感到个人责任的痛苦,那么我们就麻烦了。
这两句话表面上看起来似乎矛盾。同样,AL支持人工智能,却又担心完全将律师排除在流程之外。归根结底就是:人工智能是一种工具,工具的目的是帮助人类到达他们真正能创造价值的地方。它们并不是为了取代人类,除非这项任务极其常规,以至于让人类参与毫无意义。我个人很高兴有Waymo送我回家。一个烤面包机来烤我的吐司。一台扫地机器人来打扫我的地板。一个闹钟叫醒我。等等。我很高兴今天律师所做工作的90%都可以被完全自动化……但并非全部。一个可能的世界以下场景设定在未来不久:一家公司使用代理检测到潜在的法律问题。在没有任何人类专家检查的情况下,该问题被发送到公司内部法律团队的另一个代理。该事项自动进行分类,并决定其达到需要发送给律师事务所的阈值(因为风险外部化的需求已经满足)。一家律师事务所的新案件代理接受该任务,也进行了分类,并开始评估需要做些什么。(此时还没有任何人类律师参与。)它被发送到相应的业务组,利用经过筛选的法律数据以及事务所的专有数据和见解,最终形成一个法律解决方案。最终结果被发送给事务所的合伙人……(这也是整个过程中最糟糕的部分)……这位律师只是匆匆看了一眼。但他们知道A)内部法律团队不会阅读它,只有他们的AI会……那有什么意义呢?而且B)他们的AI完全出错的可能性非常低。所以他们没有认真检查就放过去了。(附注:这里有一个补充问题:有多少合同是客户从未真正详细阅读过的,即使在现行系统下?)内部团队的AI接收工作成果,并将其插入正确的位置,触发公司在各处的自动化后续行动。(这导致墨西哥的一个生产单位关闭,德克萨斯州和法兰克福的副经理被解雇——所有这些都通过完全自动化的流程完成。事实上,当德国的经理感到不满并决定联系当地律师事务所上诉解雇决定时,该事务所的AI仅用0.1秒就分析了这个案件,得出几乎没有胜诉可能的结论,告知客户不必浪费时间,并收取了1000欧元的费用。而且在整个过程中没有人类律师参与。)好吧,这是一幅反乌托邦的未来图景,但如果开始认为将人类律师排除在流程之外是可行的,我们离这样的未来并不遥远。
结论
这里的核心问题在于分类,或者说,是人类律师在人工智能法律世界中可能无法正确执行分类的问题。自动化初级律师的重复性工作听起来是一个非常明智的举措,这将对整个社会带来益处。(当然,初级律师可能不这么认为,但律师事务所的客户和更广泛的经济体系可能会这样看待——而这正是我们必须面对的现实。)同时,完全自动化或忽视法律项目关键时刻的人类参与,不仅存在风险,还可能将有问题的法律“内容”引入法律数据生态系统。这就是我们回到个人层面的影响,比如律师因觉得参与无意义而逐渐疏离,以及更广泛的社会层面,即整个社会认为我们可以完全自动化“一切”,从而导致各种错误被记录在案。
因此,人工智能是“好事”吗?是的。法律界长期以来都需要一次“重新平衡”,而如今,这项技术正推动这一变革的到来。但是,就连Artificial Lawyer也不希望给予人工智能绝对的自由,也不希望看到人类的判断力和批判性思维被完全取代,尤其是在如此关乎社会运作的重要领域。未来几年如何找到正确的平衡,将是至关重要的。
理查德·特罗曼,创始人,Artificial Lawyer,2025年6月—法律创新者会议纽约和英国——均在2025年11月
如果您想走在法律人工智能的前沿……那么请参加法律创新者纽约,11月19日和20日,最聪明的思想将分享他们对现状和未来方向的见解。还有,法律创新者英国——11月4日、5日和6日这两个活动一如既往地由出色的宇宙飞船团队组织!
如果您想参与,请与他们联系。
分享此文章:推文 电子邮件
发现更多来自Artificial Lawyer的内容
订阅以获取最新文章发送到您的邮箱。
输入您的电子邮件…订阅
(以上内容均由Ai生成)