英国法院为法官推出 Microsoft Copilot,更新 GenAI 规则
快速阅读: 据《人工律师》称,英国鼓励法官使用微软“通亚聊天”AI工具,但警告其答案未必准确。法官需谨慎使用,注意数据安全与隐私保护,优先选用司法系统内的安全环境,而非公共AI。
英国司法人员被鼓励通过内部的司法人员平台使用微软的“通亚聊天”生成式人工智能功能。这一举措是在更新的法官指导中强调“公共AI聊天机器人不会从权威数据库提供答案”等警告之后实施的。
本月早些时候发布的生成式人工智能公告提到,“法官可以通过Edge浏览器或Microsoft 365通亚应用程序访问通亚聊天。此工具具备企业级数据保护功能,并在Microsoft 365的隐私和安全框架下运行。登录到司法人员平台后,提交给‘通亚聊天’的数据是安全的且不会公开。”
同时,英国法院和法庭司法机构列出了法官需要了解的一系列关键问题。这意味着他们明确希望法官使用生成式人工智能……但要谨慎行事并理解其背后的原理。警告包括:“公共AI聊天机器人不会从权威数据库提供答案。它提供的答案不一定是最准确的。AI工具可能有助于找到你认为正确但手头没有的材料,但不是进行研究以发现无法验证的新信息的好方法。它们更适合被视为一种获取非确定性确认的手段,而不是提供立即正确的事实。你收到的任何答案的质量将取决于你与相关AI工具的互动方式,包括你输入的提示性质以及基础数据集的质量。这些数据集可能包含错误信息(无论是故意还是无意)、选择性数据或过时的数据。即使是最优的提示,提供的信息也可能不准确、不完整、误导或有偏见。AI工具可能有助于找到你认为正确但手头没有的材料,但不是进行研究以发现无法验证的新信息的好方法。它们更适合被视为一种获取非确定性确认的手段,而不是提供立即正确的事实。目前可用的大型语言模型似乎已经训练过互联网上发布的材料。它们对法律的看法往往基于美国法律,尽管有些声称能够区分美国法律和英国法律。”
还有一些关于保密性和避免将敏感数据输入公共LLM的重要注意事项。他们补充道:“如果选项可用,你应该禁用公共AI聊天机器人的聊天历史记录,因为它应该防止你的数据用于训练聊天机器人,并且在30天后对话将永久删除。此选项目前在ChatGPT和Google Bard中可用,但在某些其他聊天机器人中尚未实现。即使关闭了历史记录,也应假定输入的数据正在被披露。”
并且你需要“意识到,一些AI平台尤其是作为手机应用使用时,可能会要求获取设备上的多种权限以访问设备上的信息。在这种情况下,你应该拒绝所有此类权限。”
如果出现问题……
“如果发生意外泄露机密或隐私信息的情况,你应该联系你的领导法官和司法办公室。如果披露的信息包括个人数据,则应将此情况上报为数据事件。”
还有关于AI和电子披露的一些要点(详见AL的相关报道),ILTA联合一批英国律师和专家正在发布一份指南。总的来说,这是一种平衡的方法,既鼓励法官及其团队探索AI的功能,但也提醒要谨慎使用,特别是对于‘原始’和公共的LLM。相反,司法部更倾向于法官在司法系统自身的安全环境中使用通亚——这是有意义的。AL会补充说,甚至更理想的做法是直接使用已内置安全环境的法律科技工具,并且在某些情况下能够访问大量实用的法律数据。
分享:推特 电子邮件
(以上内容均由Ai生成)