2025 PAW:Arbitrage International 遇见人工智能
快速阅读: 据《Wolters Kluwer 仲裁博客》最新报道,巴黎仲裁周期间,专家们讨论了AI在仲裁中的应用,强调其作为辅助工具的重要性,同时关注数据安全、透明度和潜在偏见等问题。与会者认为,AI能提升效率,但使用者需对其局限性和风险有清晰认识,确保结果的准确性与相关性。
巴黎仲裁周活动(“PAW”)围绕人工智能(“AI”)在仲裁程序中的重要性展开了多项热议话题。这是一个备受关注的议题,法律界人士仍在继续探讨AI的应用普及较慢、涉及的伦理和法律风险,以及如何在利用AI的同时规避这些风险。本文聚焦于TrialView与39 Essex Chambers联合举办的“仲裁中的AI:少谈多技术”,以及Ashurst LLP与TrialView联合举办的“掌握AI:大胆前景到现实影响”会议上的一些关键讨论。
### AI在现实世界的实际应用
Stephen Dowling SC(TrialView)主持了一场关于AI在仲裁程序中实际影响的小组讨论会“掌握AI:大胆前景到现实影响”。嘉宾发言人包括Nick Ellison(Kroll)、Myfanwy Wood(Ashurst LLP)、Louise Reilly SC(Kellerhals Carrard)、Philippa Charles(Twenty Essex)以及国际仲裁员Jennifer Kirby。这个由不同角色的法律专业人士组成的小组,分享了他们在各自职位上使用AI的真实情况,包括作为仲裁员、出庭律师、专家顾问和律师。
作为开场,小组成员注意到AI在处理和理解大量文件方面的能力显著提升。大型语言模型(LLMs)能够以适合从业者需求的方式理解成千上万页的文档。例如,AI被用来理解大量信息。AI未来可能用于起草证人陈述、解决陈述中的不一致之处,以及进行全球范围的法律研究。通过标记化手段的信息安全也得到了讨论。目前,文件审查和关键词搜索是一些通用的AI用途。概念搜索是AI的更复杂用途。
AI的益处,特别是其在成本节约方面的潜力,引起了客户的重视。从业者需要尽快学会使用AI来促进成本降低。目前,仲裁员使用AI来创建文件日程表和时间线。虽然AI可以用简单术语解释复杂概念或帮助准备时间线的第一稿,但仲裁员使用AI来理解概念或将此依赖于准确的事实记录受到质疑。这些问题应该由当事方代表来解决。建议仲裁员不仅要透明地说明使用哪种AI,还要说明在特定目的下使用AI的程度。
由于AI涉及的风险,合理的是当事方会考虑仲裁员是否可以或不能使用特定的AI。因此,建议在程序开始时应以透明的方式讨论AI的使用。还提出了对不提供保密保护措施的AI平台的担忧。然后讨论转向最近指南和立法规定的发布。
欧盟AI法案将旨在被替代争议解决机构用于研究、解读事实和法律以及将法律应用于具体事实的AI系统分类为高风险。SVAMC指南并未施加任何明确的披露AI使用的义务,但承认在某些情况下披露此类使用可能是适当的。CiArb指南指出,如果使用AI可能影响证据和仲裁结果,或者涉及向仲裁员或任何一方明确授权,则可能需要披露使用AI工具的情况。因此,披露使用AI工具的义务远未成为一个定论。尤其是仲裁员方面的使用透明度显得尤为重要。
### AI的实际应用
“仲裁中的AI:少谈多技术”环节包括嘉宾发言者Lindy Patterson KC(39 Essex Chambers)、Hannah Fry(39 Essex Chambers)和Gillian Forsyth(Eversheds Sutherland)。讨论集中在AI在案件策略中的效用。涵盖的主题包括有效使用AI在仲裁程序中简化数据组织、增强证据准备和加强辩护能力。
关于AI在仲裁程序中的使用讨论通常从考虑风险开始。这次讨论也不例外。然而,这次讨论的一个关键点是,至少对于目前的目的来说,AI应当被用作辅助工具而不是答案本身。成为AI知识渊博的人需要了解AI系统的工作原理。大多数顶级50个AI网络产品的基础构建模块——大型语言模型(LLMs)的数据、计算资源和算法都涉及伦理和法律风险。例如,谁拥有数据?数据是否包含机密或敏感信息?使用数据是否存在版权问题?其他关注点包括数据泄露或数据偏见等。
在算法方面,最常提到的问题是AI幻觉。伦理和法律风险持续存在。仲裁员和当事方代表可以使用哪些资源来提高AI素养?DeepLex是需要考虑的资源之一。它是免费的。DeepLex旨在追踪当前的AI立法、诉讼和新兴问题,为法律专业人士提供更好的AI景观理解。
考虑到这一点,对话转向了TrialView的演示。TrialView旨在协助仲裁程序中的证据管理和分析。毫无疑问,随着技术的到来,仲裁专业人士常常发现自己淹没在证据中。如今很少有争议案件似乎局限于单一的杠杆文件证据。TrialView的平台允许用户上传大量的数据并以系统化的方式整理数据,包括上传诉状、披露、笔录等内容。所有这些都按时间顺序排列。然后它可以提供事件的简要时间线、详细的事件时间线和特定证人的证据摘要。它还可以进一步分析证人证据中的不一致性,按主题搜索文档,并提供某一事项中特定问题的摘要,例如与证人对某一事件的描述不同,以及其他更多内容。
当然,在处理数千页的证据时,这非常有用。像TrialView这样的工具如果从程序开始阶段就使用,特别是在所有证据都前置的仲裁程序中,将是最有用的。还讨论了在多种语言中搜索文档的能力。这类程序的实际应用将随着时间的推移进行测试。使用这种类型的AI带来的担忧包括结果的相关性和AI的任何偏见。例如,使用多个LLMs交叉检查一个AI的结果可以最终减少偏见等风险。
与存储在AI系统中的信息保密性相关的担忧可以通过隔离案件、在安全云中提供存储以及确保案件内容不用于训练AI来减少。当然,应该避免使用没有这些属性的公开可用的AI系统。
### 最后的评论
顺便提一下,有一场会议提供了伦敦玛丽女王大学与White & Case合作的2025年国际仲裁调查的一些初步见解。在另一篇文章报道的一次会议上,几个数字迷恋着AI在仲裁中的相关性。结果显示,节省时间是AI使用的主要驱动力。同时,使用AI的主要障碍似乎是AI错误和偏见的风险。绝大多数反对仲裁员使用AI起草裁决和决定。超过九成的受访者预计会使用AI进行研究、数据分析和文件审查。显然,尽管一般参与仲裁的人都意识到AI在仲裁程序中的好处,但似乎那些比其他人更加谨慎的人对AI的采用非常缓慢。
对于那些采用AI的人来说,AI不应被视为用户技能和判断力的替代品。它只能促进高效和经济有效的案件管理。最终,使用者需对自己的AI素养及工作成果负责,并确认结果的准确性和相关性至关重要。因此,了解AI的局限性有助于全面认识其风险与优势。
本文系Kluwer仲裁博客对2025年巴黎仲裁周活动的报道之一。
为了确保不错过Kluwer仲裁博客的最新动态,请在此订阅。要参阅我们的投稿指引,请查阅我们的投稿指引。
(以上内容均由Ai生成)