什么是 AI 幻觉?为什么 AI 有时会编造事情
快速阅读: 《经济时报》消息,AI系统可能产生“幻觉”,即输出看似合理但实际错误或误导的信息。这种现象存在于多种AI应用中,如法律、医疗和自动驾驶等,可能导致不同程度的风险,从信息不足到威胁生命。用户应警惕并核实AI输出,尤其是在关键场合。
烦死了这些广告? 关闭广告
依靠人工智能技术的系统同样可能出现幻觉。当算法系统生成看似合理但实际上不准确或具有误导性的信息时,计算机科学家称其为AI幻觉。研究人员发现这类现象存在于多种AI系统中,从利用AI软件作出量刑决定的法庭,到用算法判断患者是否符合保险覆盖资格的健康保险公司。我们是研究人工智能语音识别系统幻觉的信息科学研究员。无论AI系统在日常生活中被用于何处,它们的幻觉都可能带来风险。有些可能是轻微的——当聊天机器人对简单问题给出错误答案时,用户可能会变得信息不足。但在其他情况下,后果更为严重。
它们甚至可能威胁生命:自动驾驶汽车使用AI来检测障碍物、其他车辆和行人。
编造事实
幻觉及其影响取决于AI系统的类型。对于大型语言模型——AI聊天机器人的底层技术来说,幻觉是听起来有说服力但实际上错误、虚构或无关的信息片段。AI聊天机器人可能会引用根本不存在的科学文章,或者提供一个完全错误的历史事实,同时让它听起来可信。例如,在2023年的一起法院案件中,一名纽约律师提交了一份他用ChatGPT协助撰写的法律简报。一位敏锐的法官后来注意到,这份简报引用了一个ChatGPT捏造的案例。如果人类未能察觉这一幻觉信息,这可能导致法庭上不同的判决结果。
对于能够识别图像中物体的AI工具,幻觉出现在AI生成的标题与所提供图像不符时。想象一下,要求一个系统列出一张只包含一个从胸部以上打电话的女人的图片中的物体,并收到一个说女人坐在长椅上打电话的回答。这种不准确的信息在需要精准度的情况下可能导致不同后果。
幻觉的原因
工程师通过收集大量数据并将其输入到一个能检测数据模式的计算系统中来构建AI系统。系统根据这些模式开发出回答问题或执行任务的方法。
给AI系统提供1000张不同品种狗的照片,并相应标注后,系统很快就能学会区分贵宾犬和金毛寻回犬。但是,如果给它一张蓝莓松饼的照片,正如机器学习研究人员所展示的那样,它可能会告诉你这个松饼是一只吉娃娃。幻觉往往发生在模型基于训练数据中的相似上下文填补空白,或者使用带有偏见或不完整训练数据的情况下。这容易导致错误的推测,就像那个被错误标记的蓝莓松饼一样。重要的是要区分AI幻觉与有意创造性的AI输出。当AI系统被要求创作——比如写故事或生成艺术图像时,其新颖的输出是预期之中的。另一方面,幻觉发生在AI系统被要求提供事实信息或执行特定任务时,却产生了错误或误导性内容,并且将其呈现为准确的。关键的区别在于上下文和目的:创造性适合于艺术任务,而幻觉在需要准确性和可靠性的场合下是问题。为解决这些问题,公司建议使用高质量的训练数据,并限制AI响应以遵循某些准则。然而,这些问题可能仍存在于流行的AI工具中。
风险何在
把蓝莓松饼误认为吉娃娃的影响看似微不足道,但考虑到使用图像识别技术的不同场景:未能识别物体的自动驾驶汽车可能引发致命交通事故。错误识别目标的自主军事无人机可能威胁平民生命安全。对于提供自动语音识别的AI工具来说,幻觉表现为包含从未实际说出的词句的AI转录。这在嘈杂环境下更容易出现,AI系统可能会试图解读背景噪音(如经过的卡车或哭泣的婴儿)而添加新的或不相关的词语。随着这些系统越来越多地融入医疗、社会服务和法律领域,自动语音识别中的幻觉可能导致患者、刑事被告或需要社会支持的家庭遭受临床或法律方面的不利影响。
检查AI的工作
无论AI公司如何努力减少幻觉,用户都应保持警觉并质疑AI输出,特别是在需要精确和准确的场合下使用时。仔细核对AI生成的信息,必要时寻求专家意见,并认识到这些工具的局限性是降低其风险的关键步骤。(《对话》)
(以上内容均由Ai生成)