让我告诉你
快速阅读: 据《爱尔兰律师会公报》称,大卫·考恩博士指出,尽管人工智能如ChatGPT在法律领域的应用潜力巨大,但它仅是辅助工具而非替代品。律师需掌握“法律提示”技巧,谨慎使用以避免错误和隐私问题。考恩强调,有效的人工智能应用需清晰定义需求并仔细核实输出。
2025年5月20日
科技 印刷版
让我来告诉你,当ChatGPT崭露头角时,它被赞誉为数字化的奇迹面包。但正如俗话所说,“垃圾输入,垃圾输出”。那么,要有效地使用它,你需要了解什么呢?大卫·考恩深入探讨了这些问题。
对于法律行业而言,像ChatGPT及其同类的新技术似乎过于接近核心领域,伴随着通常的头条新闻,声称法律机器人和数字法官即将出现。律师行业的终结!
实际上,像ChatGPT以及现在的DeepSeek这样的工具距离这一点还很远。并不是律师被取代了,而是某些任务,包括起草工具。笔、打字机和计算机都已成为法律起草的强大助手。如果正确使用,ChatGPT是最新可以帮助律师的工具。
但它只是助手,而非替代品,那些过度依赖ChatGPT的律师在法庭上遭遇失败。
**警示故事**
在美国的一起人身伤害案件中,罗伯托·马塔起诉了航空公司Avianca。他的律师提交了一份十页的简报,由Levidow, Levidow & Oberman事务所的史蒂文·A·施瓦茨撰写,引用了六件以上的法院判决,包括Martinez诉Delta航空公司、Zicherman诉Korean航空公司、Varghese诉China Southern航空公司等。
不幸的是,对纽约执业30年的施瓦茨先生来说,这些案例是由ChatGPT虚构的。施瓦茨在向法院提交的宣誓书中承认,他使用了一个“已被证明不可靠”的来源。
在法庭上长达两个小时的严厉盘问中,他向法官解释说,他之前从未使用过ChatGPT,因此“不知道其内容可能是虚假的”。在进一步提示ChatGPT后,程序坚持立场并确认这些案例是真实的。
法官大声读了几行草稿并问施瓦茨:“我们能同意这是毫无意义的文字吗?”
这个现在臭名昭著的例子说明了两件事。首先,这种技术很快将取代律师的谬误。其次,从业者需要发展与AI和其他技术一起使用的法律提示技能。
律师一直被训练提问,这当然是正确的——但在数字空间中,如何进行提问需要一种特定的方法,这种方法被称为“法律提示”。
使用良好的法律提示技巧可以让律师将ChatGPT当作工具来使用,就像笔记本电脑或智能手机一样。
从业者需要朝着理解这些工具作为我所说的“增强型律师”方法的一部分迁移。这结合了人类的法律能力与大数据技术的力量和广度。
**这些工具是如何工作的?**
ChatGPT是一个大型语言模型(LLM),这意味着它会根据人类提供的问题或提示生成类似人类的语言响应。
LLM为律师从事的不同类型的智力工作提供了新的技术支持。
通过巧妙地使用正确的命令或提示,律师可以在法律工作中节省大量时间,但这仍然需要人类律师付出很多努力。
正如施瓦茨先生以自己的代价发现的那样,捷径仍然是法律从业者走的危险道路。
这些都是预先训练在大量数据上的工具。使用的数据包括文本、图像、视频和语音。提供给LLM的规则和数据越多,结果就越准确和高效。
确实,在大数据和明确规则存在的情况下,使用LLM更有意义,因为问题本质上是关于处理大量信息。
然而,它们需要大量的数据、能源、资源和成本。关键在于预训练阶段,这回到了所有计算中不应忘记的一个公式:“垃圾输入,垃圾输出”(GIGO)。
LLM使用猜测,虽然它模仿了许多人类思维过程,但在思考和评估信息的方式上,它可能会大幅不如人类。
LLM工作方式中尚未解决的问题之一是它们在从互联网“抓取”尽可能多的内容作为回应提示的数据池的过程中侵犯知识产权的程度。可以说这是一种大规模的知识产权盗窃。
因此,例如,如果司法助理使用ChatGPT为法官起草材料,则涉及知识产权盗窃。
如果律师上传与客户相关的提问,这将成为LLM用于“学习”其他用户提示的循环内容的一部分,从而引发客户隐私问题。
**局限性**
拥有这样一套工具使法律提示或法律提示工程成为一项重要的新兴技能。将LLM的使用视为一种增强技能有助于应对一些局限性。
使用这些工具的风险是它们可能:
– **反映偏见**:这可能源于训练数据或算法中的偏见。任何数据中的缺陷可能对用户变得明显,但系统会接受数据的表面价值。
– **作出错误陈述**:这可能是由于指令或训练数据中的错误和偏见,因为我们仍然有GIGO动态。LLM处理可能性。结果可能是随机的,导致系统“猜测”答案。
– **产生幻觉**:当模型生成的回答是为了提供答案而虚构的,选择看起来最有可能的答案时就会发生这种情况。它可能会捏造一个案例引用,因为它“知道”应该有一个案例但找不到。模型然后生成这个内容,而不一定向用户解释。
– **忽略基本逻辑**:模型生成的文本可能看起来非常合理且逻辑清晰,但它并不复制人类知识。答案可能不是逻辑上的,而是模型认为可能的。
在进行法律工作时,必须牢记这些局限性。这并不意味着这些工具无法提供巨大的价值。这意味着将LLM视为工具,而非替代品。
**“WHICH”方法(见下方面板)有助于聚焦你的查询并创造整体输出。**
**法律提示技巧**
当我们作为人类推理时,我们会想到问题以帮助我们得出结论。LLM需要的是提示。我们可以将查询表述为自然语言问题,但LLM会识别问题中的提示,即关键词和文本片段。
关键词越集中和明确,LLM返回的有用响应就越多。更精确的提示可以帮助开发初始响应。
法律培训涉及这种方法,如交叉审问,而LLM类似于进行数字交叉审问以获得所需的质量响应。
然而,如果做得懒散或匆忙,LLM更容易出错,因为它很可能错过数据点。这是因为它缺乏定义,无法基于此进行概率推理。
基于WHICH方法,有七个步骤可以采取来优化你的问题并发展你的法律提示技能(见下表),通过帮助你确定如何输入请求以获得成功的结果。
这归结为用户想要什么的清晰度,以及在将需求转化为行动时的有效沟通。
小妖精精心构建的提问是应对“垃圾进、垃圾出”问题的有效方法。提出一个好的问题,你就应该能得到一个可以使用的良好结果。然而,它——并且确实应该——总是会缺少某些东西。这是因为,作为律师,你应该为输出添加更多内容,使其对客户有价值,即使你已经做了大量工作来优化输出。当然,问题的需求越简单,输入就越能产生令人满意的结果,可能需要很少的额外努力。话虽如此,所有的输出仍然需要仔细检查——我们不希望那些昂贵的幻觉错误潜入最终提交给客户的文件或法庭上的文件中!
**大卫·考恩博士是梅努斯大学的助理教授,也是《法律与技术》(将于2025年6月由布卢姆斯伯里专业爱尔兰出版社出版)一书的作者。**
**七步计划**
1. **定义**:大型语言模型,你提问时的角色是什么?你是检察官、辩护律师还是法官?明确你的询问领域。例如,你可以询问关于嫌疑人的手机数据保留情况。问题:“警察是否可以获取嫌疑人的手机定位数据?”将比“嫌疑人保护其数据隐私权的权利是什么?”提取的关键词更精准,后者提取的关键词为“隐私”、“权利”、“数据”和“保护”。
2. **受众**:告诉大型语言模型你的研究面向谁。你是起草法院提交文件,撰写电子邮件向客户提供咨询,还是为客户事项向内部团队提出想法?受众确定了大型语言模型需要聚焦的查询范围的相关事实、语言和想法。
3. **问题**:提示需要是整体提问策略的一个精确组成部分。你是想要一个大致概念、研究指引、具体案例和引用、战略选择还是一份模板?
4. **风格**:你需要大型语言模型以特定格式呈现输出吗?例如,一份具有推荐布局的正式文件?
5. **上下文**:用井号或破折号标记这些信息以便大型语言模型识别,从而指定你的查询上下文。例如,你可以提到:“嫌疑人正在都柏林探望家人,在这段时间因为附近发生了一些骚乱,他总是对家人和陌生人感到愤怒。”
6. **清晰度**:你可以审查响应并提出进一步的问题以细化输出或进行初步验证。例如,你可以问:“你有那个案件的引用吗?”甚至可以直接告诉大型语言模型:“你错了”,然后提出问题引导大型语言模型修正答案。
7. **核实**:完成这一流程后,核实回复至关重要,但这并不意味着之前的输入可以完全信赖。这里的模式应该是‘质疑,再确认’,而不是‘信任,但核实’。
**资料来源**:考恩,《法律与技术》(布卢姆斯伯里专业爱尔兰出版社,2025年)。
(以上内容均由Ai生成)