人们更信任 ChatGPT 提供的法律建议而不是律师——新研究
快速阅读: 据《The Conversation (英国)》最新报道,研究显示,非法律人士更易信赖ChatGPT的法律建议而非律师,尤其不知来源时。尽管能部分辨别建议来源,但依赖AI有风险。需加强AI素养与监管,确保明智使用AI工具。
非法律专业人士更倾向于相信由ChatGPT提供的法律建议,而非律师的建议,尤其是在不知晓建议来源的情况下。这是我们最新研究得出的重要结论,该研究凸显了公众日益依赖人工智能生成内容所引发的一些关键问题。我们还发现,公众至少具备一定程度的能力来辨别建议是由ChatGPT还是人类律师提供的。
像ChatGPT及其他大型语言模型(LLMs)这类AI工具正逐步融入我们的日常生活。它们承诺能迅速提供答案、激发创意、诊断健康问题,甚至通过提供具体法律建议来协助解决法律难题。然而,LLMs因所谓的“幻觉”现象而广为人知——即输出的内容可能存在不准确或无意义的情况。这意味着,人们对这些工具的过度依赖在法律等高风险领域确实存在实际风险。
LLMs倾向于自信地提出建议,这使得人们难以区分优质建议与错误建议。我们在总计288名参与者身上开展了三项实验。在前两项实验中,参与者被给予法律建议,并被要求选择他们愿意信任哪一项。当我们隐瞒建议是由律师提供还是由AI生成时,我们发现参与者更倾向于信任AI生成的建议。这意味着,若LLM在未披露其性质的情况下提供法律建议,人们可能会视其为事实,并更倾向采纳AI的建议,而非律师的专业意见——未必会去验证其准确性。
即便参与者被告知哪些建议来自律师,哪些来自AI生成,我们仍发现他们同样乐于听从ChatGPT的建议,就像对待律师一样。正如我们在研究中所发现的,LLMs可能因其使用了更为复杂的语言而受到青睐。相比之下,真实的律师倾向于使用较为简洁的语言,但在回答时使用的词汇量更多。LLMs在提供建议时比真实律师显得更加自信。
在第三项实验中,我们调查了当来源未向参与者披露时,他们是否能够分辨LLM和律师生成的内容。好消息是他们确实可以——但程度有限。在我们的测试任务中,随机猜测的分数可能是0.5,而完全正确分辨则能得到满分1.0。平均而言,参与者的得分达到了0.59,表明他们的表现略高于随机猜测,但仍相对较低。
监管与AI素养
对于此类研究而言,这是个至关重要的时刻,因为像聊天机器人和LLMs这样的AI驱动系统正日益成为日常生活的一部分。Alexa或Google Home可以作为家庭助手,而AI支持的系统则可以帮助完成复杂的任务,例如网上购物、总结法律文件或生成医疗记录。然而,这也伴随着因受幻觉误导的信息而做出可能影响生活的重大决定的风险。在法律案件中,AI生成且基于幻觉的建议可能导致不必要的复杂状况,甚至造成司法不公。
因此,现在比以往任何时候都更需要正确规范AI。迄今为止的努力包括欧盟的《人工智能法案》,其中第50.9条指出,文本生成型AI应确保其输出“以机器可读格式标记并检测为人工生成或操纵”。但这仅仅是解决方案的一部分。我们还需提升公众的AI素养,使他们能够更好地理性判断内容。当人们能更好地识别AI时,他们就能做出更明智的决策。这意味着我们需要思考建议的来源,理解AI的能力与局限,并在与AI生成的内容互动时强调批判性思维和常识的应用。
具体而言,这意味着需要通过可信的来源交叉核对重要信息,并引入人类专家以避免过度依赖AI生成的信息。在法律建议方面,使用AI询问一些基础问题是可行的:“我有哪些选择?我需要阅读什么?是否有类似我的案例,或者这是哪个领域的法律?”但在进入法庭或执行任何LLM生成的内容之前,重要的是要与人类律师核实建议。
AI可以是一个有价值的工具,但我们必须负责任地使用它。通过采用注重监管和AI素养的双管齐下方法,我们可以最大化其优势,同时最小化其风险。
阅读更多:我们向ChatGPT寻求法律建议——这里有五个原因你不应该这样做
(以上内容均由Ai生成)