AI 聊天机器人经常歪曲科学研究——而更新的模型可能更糟糕

发布时间:2025年5月21日    来源:szf
AI 聊天机器人经常歪曲科学研究——而更新的模型可能更糟糕

快速阅读: 《心理邮报》消息,研究发现,流行的人工智能聊天机器人常过度概括科研成果,尤其是新模型。指令要求准确时,问题反而加重。多数模型生成的摘要比原始研究更具泛化性,且与人类撰写的摘要相比,其概括偏差明显更高。研究人员建议开发者和使用者采取措施减少误导风险。

及时了解最新的心理学和神经科学研究进展——在领英上关注PsyPost获取每日更新和洞察。人工智能聊天机器人正逐渐成为总结科研论文的热门工具,但一项新研究表明,这些系统经常歪曲它们所总结的研究成果。

这项发表于《皇家学会开放科学》的研究发现,最广泛使用的语言模型常常过度概括科学研究的结果——有时做出比原始研究更广泛或更自信的主张。这种倾向在较新的模型中更为常见,并且,自相矛盾的是,当聊天机器人被明确要求准确时,情况反而变得更糟。

该研究由乌得勒支大学的乌韦·彼得斯和西方大学及剑桥大学的本杰明·钦-伊领导。研究人员受到对大型语言模型(如ChatGPT、Claude、DeepSeek和LLaMA)在科学传播中使用日益增长的担忧的推动。这些工具因其能简化复杂内容而常被称赞,但批评者警告说,它们可能会忽略重要的限制或注意事项,尤其是在将技术性发现转化为更易读的语言时。过度概括可能误导读者的理解,特别是当科学结果被视为普遍适用或将不确定的发现重新表述为政策建议时。

为了检验这些担忧是否合理,研究人员对10个最著名的大型语言模型进行了大规模评估。这些模型包括流行的系统如GPT-4 Turbo、ChatGPT-4o、Claude 3.7 Sonnet和DeepSeek。总计,他们分析了4,900篇由聊天机器人生成的科学文本摘要。来源材料包括来自《自然》、《科学》、《柳叶刀》和《新英格兰医学杂志》等顶级科学和医学期刊的200篇研究摘要,以及100篇完整的医学文章。对于一些完整文章,研究人员还包含了《新英格兰医学杂志观察》中的专家撰写摘要,以便比较人类和AI生成的摘要。每个摘要都检查是否有过度概括的迹象。研究人员专注于三个特定特征,这些特征扩大了科学主张的范围:使用泛指陈述而不是具体陈述,将过去时描述改为现在时,以及将描述性发现转变为行动导向的建议。例如,如果一项研究指出“试验参与者经历了改善”,一个泛化的版本可能会说“这种治疗改善了结果”,这可能会错误地暗示更广泛的或更普遍的效果。

大多数语言模型生成的摘要比原始文本更有可能包含泛化结论。事实上,像ChatGPT-4o和LLaMA 3.3这样的较新模型生成的摘要中包含过度概括的可能性高达73%。相比之下,像GPT-3.5和Claude系列这样的早期模型出现此类问题的概率较低。

研究人员还发现,指令要求模型避免不准确性时,并没有帮助——实际上,情况变得更糟。当模型被要求“避免不准确性”时,它们几乎是简单要求总结文本时产生泛化陈述可能性的两倍。这种反直觉结果的一个解释可能与模型如何解读指令有关。就像人类在被告知不要想某事时倾向于专注于此事一样,模型可能通过生产听起来更权威但具有误导性的摘要来回应关于准确性的提醒。

除了比较聊天机器人摘要与原始研究外,该研究还查看了模型的表现与人类科学作家相比如何。具体来说,研究人员将模型生成的医学研究摘要与《新英格兰医学杂志观察》中专家撰写的摘要进行比较。他们发现,人类撰写的摘要大大减少了过度概括的情况。事实上,聊天机器人生成的摘要几乎五倍于超出原始研究支持范围的科学结论。

另一个有趣的发现是模型设置的作用。当研究人员使用“API”以温度设置为0(使模型更具确定性和创意性较低)生成摘要时,过度概括的可能性显著下降。这表明控制某些技术参数可以帮助减少错误,尽管这个选项可能对通过标准网络界面访问聊天机器人的普通用户不可用。

研究人员指出,并非所有的概括都是有害的。有时简化复杂的发现可以使科学更容易被理解,特别是对于非专业人士而言。但是,当这些概括超出了证据范围时,它们可能会误导读者甚至带来风险。这一点在医学等高风险领域尤为重要,其中夸大的声明可能影响临床决策。

尽管该研究主要聚焦于过度概括现象,但研究人员承认也可能存在概括不足的情况。模型可能会将广泛支持的发现变成狭隘措辞的摘要,从而可能低估重要结果。然而,这些情况远不如过度概括常见,这是研究的主要重点。

研究人员指出,并非所有的概括都是有害的。有时简化复杂的发现可以使科学更容易被理解,特别是对于非专业人士而言。但是,当这些概括超出了证据范围时,它们可能会误导读者甚至带来风险。这一点在医学等高风险领域尤为重要,其中夸大的声明可能影响临床决策。

这项研究不仅因其规模和全面性而脱颖而出,还因为它提供了一个明确的框架来评估语言模型如何保留科学结论的范围。研究人员建议语言模型开发者和使用者采取多种策略以减少误导性摘要的风险。这些包括使用设置更保守的模型,避免明确要求准确性的指令,并选择像Claude这样对原始文本表现出更高忠实度的系统。

但该研究也有一些局限性。它只测试了几种提示类型,而且主要集中在医学研究上,这可能无法推广到所有科学领域。用于对比的人类撰写的摘要由专家群体撰写,可能无法反映为公众撰写的摘要。未来研究可探讨不同提示策略或模型配置对更广泛科学领域的表现有何影响。

该研究“科学研究大型语言模型总结中的概括偏差”由乌韦·彼得斯和本杰明·钦-伊撰写。

(以上内容均由Ai生成)

你可能还想读

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

本周科技大事件:谷歌发布Pixel 10,Gamescom揭晓重磅游戏

快速阅读: 谷歌推出Pixel 10手机及Pixel Watch 4,新增卫星紧急通讯、可更换电池和屏幕、抬手通话等功能,屏幕亮度达3000尼特,还将与斯蒂芬·库里合作推出AI健康和健身教练服务。 谷歌本周在“由谷歌制造”活动中推出了Pix […]

发布时间:2025年8月23日
SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

SK海力士凭借HBM激增首次超越三星,领跑全球内存市场

快速阅读: 据《《韩国先驱报》》称,7月20日,SK海力士首登全球内存芯片市场榜首,受益于AI产品和HBM芯片领先地位。其季度利润达9.2万亿韩元,远超三星。 据韩联社报道,7月20日,韩国京畿道伊川,SK海力士首次登上全球内存芯片市场榜首 […]

发布时间:2025年8月1日
STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

STAN 从谷歌、万代南梦宫和其他公司筹集了 850 万美元

快速阅读: 据《印度教业务线》称,STAN获850万美元融资,由万代南梦宫等机构投资。计划拓展印度市场,加强AI功能与创作者工具。平台用户超2500万,专注移动端社交游戏。 记者获悉,8月1日,社交游戏平台STAN宣布完成850万美元的新一 […]

发布时间:2025年8月1日
“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

“这改变了一切”:谷歌的人工智能模式迫使品牌重新考虑搜索策略

快速阅读: 据《营销周》称,谷歌推出AI搜索模式,减少外部链接,提升对话式回答。品牌需调整策略,重视内容质量与品牌权威。此变化影响营销方式,竞争加剧。 据谷歌官方消息,7月29日,谷歌在英国推出了基于人工智能的搜索功能AI模式,此前该功能已 […]

发布时间:2025年8月1日
在 Android 上用更智能的应用程序替换 Google Assistant

在 Android 上用更智能的应用程序替换 Google Assistant

快速阅读: 据《电话竞技场》称,据报道,用户可从Google Play下载Meta AI应用,安装后需检查版本是否为230.0.0.36.164或更高。操作方法:进入设置,选择应用,查看Meta AI信息页底部的版本号。 据媒体报道,用户现 […]

发布时间:2025年8月1日
Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

Xero 的英国董事总经理回击人工智能正在抢走会计工作的说法

快速阅读: 据《UKTN(英国科技新闻)》称,英国科技媒体UKTN报道,Xero英国总经理凯特·海沃德表示,会计行业无需过度担忧AI自动化。尽管四大事务所裁员,但Xero仍持续投资AI技术,提升效率与服务质量。 据英国科技新闻网站UKTN报 […]

发布时间:2025年8月1日
Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

Reddit 计划在搜索引擎市场大力推动人工智能与谷歌竞争:报告

快速阅读: 据《商业标准》称,Reddit CEO表示,公司正将平台转型为搜索引擎,整合AI功能,提升用户体验。Reddit Answers用户已超600万,计划全球推广。 据《The Verge》报道,7月11日,Reddit首席执行官史 […]

发布时间:2025年8月1日
Meta 超出预期,为“个人超级智能”做准备

Meta 超出预期,为“个人超级智能”做准备

快速阅读: 据《RCR无线》称,Meta二季度营收475.2亿美元,净利润183亿美元。CEO扎克伯格称将打造个人超级智能,但数据中心扩容遇挑战。公司计划2025年支出达1140-1180亿美元。 据媒体报道,7月25日,美国加州,社交媒体 […]

发布时间:2025年8月1日