法院抨击律师使用 AI 生成的虚假引文
快速阅读: 据《国家法律评论》称,科罗拉多州一名联邦法官批评律师在案件中滥用生成式人工智能,指出近三十处错误引用,包括虚构判例。法官质疑律师的诚信,强调人工智能辅助下仍需人工核实信息,重申法律实践的职业责任与伦理要求。
科罗拉多州一名联邦法官下达了一份措辞严厉的命令,这应当成为对在法律研究中使用前沿生成式人工智能(生成式AI)模型的律师们的警示。4月23日,科罗拉多州地区法院的联邦法官尼娜·Y·王发出了一份传讯令,在库默诉林德尔一案中揭示了诉讼中未经验证的人工智能使用的危险。案件及其知名被告的诽谤案原告为埃里克·库默,他曾是Dominion投票系统的高管;被告则是MyPillow的知名首席执行官迈克·林德尔。因其当事人知名度和作为生成式AI误用的警示案例,此案受到广泛关注。
**根本不存在的案件引用**
王法官发现林德尔律师团队提交的简报中有近三十处错误引用,法院指出:
– 引用了根本不存在的判例;
– 将法律原则归结于完全没有此类表述的判决;
– 一个司法管辖区的案件被错误地标记为来自另一个司法管辖区;
– 对实际法律权威的错误引用尤为严重。
特别是,引用了“珀金斯诉联邦水果及农产品公司……”——一个完全虚构的案件。法院指出,虽然确实存在同名但形式不同的案件,但生成式AI工具基本上通过拼凑不同案件的元素伪造了一个虚假引用。
**不情愿地承认**
在听证会上被问及这些错误时,辩护律师起初推卸责任,要么辩称是“草稿文件”,要么指责同事未做引用核对。只有在王法官直接询问是否由人工智能生成内容时,卡丘罗夫才不情愿地承认使用了生成式AI。更令人震惊的是,卡丘罗夫“承认在使用后未对反对意见中的权威进行引用检查就提交给法院——尽管他理解根据规则11他的义务。”
法庭对其声称在使用AI前已亲自撰写简报表示公开质疑,指出“错误的普遍程度”。
**在听证会上被问及这些错误时,辩护律师起初推卸责任,要么辩称是‘草稿文件’,要么指责同事未做引用核对。只有在王法官直接询问是否由人工智能生成内容时,卡丘罗夫才不情愿地承认使用了生成式人工智能。**
**法律实践的教训**
人工智能验证并非可选项——这是职业责任。尽管人工智能工具能提升效率,但仍需人工监督。法律实践的伦理根基并未改变:律师必须核实提交给法庭的信息,无论其来源如何。
随着生成式AI快速渗透法律实务,库默案提醒我们,技术无法替代专业判断。案件引用需核实,引文需确认,法律原则须以原始资料为准。尽管法律界一直在适应新技术,但核心职责并无显著变化。在人工智能时代,这些义务较以往任何时候都更需警惕。
**人工智能验证并非可选项——这是职业责任。尽管人工智能工具能提升效率,但仍需人工监督。法律实践的伦理根基并未改变:律师必须核实提交给法庭的信息,无论其来源如何。**
注:以上翻译中涉及的人名、地名、公司名等均按音译处理。
(以上内容均由Ai生成)