ChatGPT 凭空编造了一个产品功能,所以这家公司创造了它
快速阅读: 据《Ars Technica》称,大型语言模型可能生成不准确内容,如ChatGPT虚构Soundslice功能。2023年律师因引用假案例受罚,2024年加拿大航空因聊天机器人错误政策被罚款。Soundslice将问题转化为功能,引发产品开发反思。
作为预测机器,经过大量文本数据集训练的大型语言模型可以轻松生成看似合理但完全不准确的输出。这些模型会根据其训练数据中表示不佳的主题进行统计上的即兴发挥,生成基于统计模式而非事实准确性的文本。通过这种方式,ChatGPT编造了一个Soundslice的功能,告诉用户他们想听的内容。通常,这种虚构往往会惹上麻烦。在2023年一个著名的案例中,律师们因提交了包含ChatGPT生成的不存在法院案件引用的法律备忘录而受到处罚或制裁。2024年2月,加拿大的民事解决法庭命令加拿大航空向一名顾客支付赔偿金,并遵守由客服聊天机器人虚构的票价政策,该聊天机器人错误地声称顾客可以在机票签发日期后的90天内申请丧亲折扣。“从缺陷到功能”Soundslice发现这一情况后面临了一个不同寻常的困境。该公司本可以发布免责声明,提醒用户忽略ChatGPT的言论,但相反,他们选择了不同的路径。“我们最终决定:好吧,我们不妨满足市场需求,”霍洛瓦蒂解释道。团队开发了一个ASCII吉他谱导入器——这个功能原本“在我‘2025年想写的软件’列表中排在最末”——并更新了用户界面,以告知用户这项新功能。Soundslice的解决方案是一个有趣的“将坏事变好事”的例子,但对霍洛瓦蒂来说,这种情况引发了关于产品开发的反思。“我对此的感受很复杂,”他写道。“我很高兴能添加一个帮助人们使用的工具。但我觉得我们的手是在一种奇怪的方式下被强迫的。我们真的应该根据虚假信息来开发功能吗?”
(以上内容均由Ai生成)