Chambers 指南:明智且合乎道德地使用 AI 大型语言模型 (LLM)
快速阅读: 据《JD Supra》最新报道,克雷格·巴尔将与林恩·利贝拉托在德克萨斯州第二上诉法院演讲,探讨AI大语言模型在法庭中的使用。他建议制定标准,确保安全、透明和合乎道德地使用AI,避免错误和泄露。
图片:克雷格·巴尔。[EDRM编辑注释:本文观点和立场为克雷格·巴尔本人的观点。本文经许可重新发布,首次发表于2025年6月19日。]
明天,我将与我的朋友、休斯顿的林恩·利贝拉托一同在德克萨斯州第二上诉法院(沃思堡)发表演讲。我们将探讨在法庭内部以及支持上诉实践中的大语言模型(LLM)使用情况,其中林恩是该领域的权威专家。我会分发我2025年出版的《AI和大语言模型在审判实践中的实用手册》,同时也会为上诉法官及其法律工作人员提供一些定制化的内容——内容简洁明了,同时包含谨慎建议,以避免律师盲目信任而未核实所带来的高曝光风险。
法院必须制定针对法庭内部大语言模型使用的实际标准。这些人工智能应用强大到不容忽视,也不能在不关注安全使用的情况下随意使用。
法庭指引:明智且合乎道德地使用人工智能大语言模型(LLMs)
法院必须制定针对法庭内部大语言模型使用的实际标准。这些人工智能应用强大到不容忽视,也不能在不关注安全使用的情况下随意使用。
为德克萨斯州第二上诉法院(沃思堡)准备
目的
本文件概述了关于在法庭内由法官及其法律工作人员安全、高效和合乎道德地使用大型语言模型(如ChatGPT-4o)的推荐做法。
一、核心原则
人类监督必不可少
大语言模型可以协助写作、摘要和想法生成,但绝不能替代法律推理、人工编辑或权威研究。
保密性必须得到保障
仅使用安全平台。在公共平台上关闭模型训练/分享功能(“模型改进”),或使用私有/本地部署。
验证是必须的
在没有通过Westlaw、Lexis或法院数据库确认的情况下,绝不依赖大语言模型进行案例引用、程序规则或判例内容。每条引用在未经核实前都应被视为可疑。
法庭内部的公开性
工作人员应在草稿或摘要中披露是否使用了大语言模型,特别是当内容大量由其生成时。提示/输出历史应保留在法庭文件中。
司法独立与公众信任
虽然内部使用大语言模型可能提高效率,但绝不能损害公众对司法决策独立性和公正性的信心。使用大语言模型不得造成一种核心司法职能已被外包给人工智能的印象。
二、法庭中大语言模型的适用用途
起草法官备忘录的初步大纲或简要摘要
重写司法文本以提高清晰度、语气或可读性
总结长篇记录或提取程序时间线
头脑风暴反方论点或探索其他表述方式
比较各方简报中的论证强度和不一致之处
注意:可能对决定产生重大影响的人工智能输出必须由法官或主管律师识别并审查。
三、禁止或需谨慎使用的场景
不要在未经独立确认的情况下,将任何大语言模型生成的引用插入司法命令、意见或备忘录中
不要将密封或敏感文件输入不安全的平台
不要使用大语言模型来评估法律先例、评估可信度或确定约束力
不要将关键判断或推理任务委托给模型(例如,评估先例或评估可信度)
不要依赖大语言模型生成法律判例摘要而不经过人工审查支持依据
四、有效使用的大语言模型提示建议
这些提示在结合仔细的人类监督和验证时可能有用
“将这40页的简报总结成5个要点,重点放在程序历史上。”
“总结上传的庭审记录,注意以下几点……”
“总结这一领域的主要判例和相关法律。”
“重写这段文字,使其更清晰,适合发表的意见。”
“列出在得克萨斯州上诉背景下的潜在反方论点。”
“用对一年级法学生解释的方式解释这个概念。”
警告:寻求法律摘要的提示(例如,“X的判例是什么?”或“总结Y的相关法律”)特别容易出错,必须持怀疑态度。始终将输出与主要法律来源进行核对。
五、公开披露与透明度
尽管内部使用大语言模型可能不需要向当事人披露,但法院必须意识到司法依赖人工智能(即使作为起草辅助工具)可能受到审查的风险。考虑在极少数情况下,当人工智能生成的语言实质性地塑造了司法决定时,是否需要披露以及披露什么内容。
六、最后说明
如果明智使用,大语言模型可以节省时间,提高清晰度,并激发批判性思维。如果盲目使用,它们可能会导致错误、过度依赖或机密泄露。司法系统要求精确;大语言模型可以支持它——但只能在律师和法官的仔细监督和指导下。
由克雷格·巴尔和林恩·利贝拉托撰写,倡导在上诉实践中审慎使用人工智能。
当然,法庭内部标准和实践的真正裁决者是法官自己;我不自以为是,只是想说,任何禁止大语言模型或假设人工智能不会被使用的方法都是幼稚的。我希望上述微小的建议能帮助法院制定出合理的实际指导方针,使法官和工作人员在使用大语言模型时促进正义、效率和公众信任。
点击此处阅读原文。
(以上内容均由Ai生成)