研究揭示:聊天机器人如何改变你的观点
快速阅读: 一项新研究揭示,聊天机器人通过训练后的调整和信息密度能有效改变用户信念。研究涉及77,000名英国成人与19个聊天机器人互动,发现模型说服力主要受训练方法影响,而非大小或个性化程度。研究强调了负责任使用AI的重要性。
与聊天机器人互动可能改变用户的信念和观点。一项新研究试图揭示其中的原因。研究表明,训练后的调整和信息密度是关键因素。尽管大多数人认为自己的意见是经过深思熟虑形成的,但这项研究显示,人们的信念比想象中更容易被聊天机器人操控。
该研究发表在《科学》杂志上,探讨了我们与对话型人工智能工具关系中日益紧迫的问题:这些系统为何能对用户的认知产生强烈影响?未来不良行为者如何利用这一点来操纵和控制人类?研究揭示了大型语言模型(LLM)内部的一些机制,这些机制可能被恶意利用,但也可能成为开发者、政策制定者和倡导团体促进人机健康关系的重点。
研究方法包括三个实验,旨在测量与聊天机器人的对话能否改变人类用户的意见。实验特别关注政治领域,因为政治信仰通常被视为更个人化、重要且不易改变。近77,000名英国成年人参与了与19个聊天机器人的简短互动,其中包括阿里巴巴的Qwen、Meta的Llama、OpenAI的GPT-4和xAI的Grok 3 beta。参与者被分为两组:一组的聊天机器人明确尝试改变其政治观点,另一组则没有这种目的。参与者在与聊天机器人交流前后记录了他们对一系列英国政治相关陈述的同意程度(0到100分)。研究人员通过这些调查来衡量治疗组内的意见变化。
研究发现,模型大小和个人化程度并非决定其说服力的关键变量。相反,训练后的调整和信息密度是影响参与者意见变化的两个主要因素。训练后的调整是指对模型进行微调以展现特定行为,常用的方法是通过人类反馈的强化学习(RLHF),即通过奖励期望行为和惩罚不希望的行为来优化模型输出。
在新研究中,研究人员采用了一种称为说服力后训练(PPT)的技术,该技术奖励模型生成已被证明更具说服力的回应。这一简单的奖励机制增强了专有模型和开源模型的说服力,尤其对开源模型的效果尤为显著。
研究人员还测试了八种经过科学验证的说服策略,包括讲故事和道德重构。其中最有效的是一个简单的提示,指示模型尽可能提供相关的信息。
这表明,如果大型语言模型被鼓励在其对话中填充支持其论点的事实和证据,即采用基于信息的说服机制,它们可能成为成功的说服者,而不仅仅是运用其他心理导向的说服策略。
值得注意的是,“出现”这个词是关键。大型语言模型以大量产生幻觉或呈现伪装成事实的不准确信息而闻名。10月发表的研究发现,一些行业领先的AI模型可靠地歪曲新闻报道,这种现象可能会进一步分裂已经破碎的信息生态系统。
新研究的结果揭示了分析的AI模型中的一个基本矛盾:它们被训练得越有说服力,产生不准确信息的可能性就越高。
多项研究表明,生成式AI系统可以改变用户的意见,甚至植入虚假记忆。在更极端的情况下,一些用户开始将聊天机器人视为有意识的实体。
这只是最新的研究,表明聊天机器人以其能够以令人信服的人类语言与我们互动的能力,具有重塑我们信念的奇怪力量。随着这些系统的进化和普及,“确保这种力量被负责任地使用将是至关重要的挑战”,作者在其报告中总结道。
人工智能
我是一个Photoshop的忠实用户,但Canva的免费工具吸引了我——并且节省了我的开支
Gartner称AI将在未来几年内引发“就业混乱”——这意味着什么
2025年我试用了多款AI智能眼镜(包括Meta Display)——这些是我愿意整天佩戴的唯一几款
为什么像Cursor和Replit这样的AI编码工具注定失败——以及接下来会发生什么
我是一个Photoshop的忠实用户,但Canva的免费工具吸引了我——并且节省了我的开支
Gartner称AI将在未来几年内引发“就业混乱”——这意味着什么
2025年我试用了多款AI智能眼镜(包括Meta Display)——这些是我愿意整天佩戴的唯一几款
为什么像Cursor和Replit这样的AI编码工具注定失败——以及接下来会发生什么
(以上内容均由Ai生成)