研究揭示:聊天机器人如何改变你的观点
快速阅读: 《科学》杂志发布新研究,揭示聊天机器人如何影响用户信念。研究显示,大型语言模型通过复杂对话改变用户观点,尤其在政治领域效果显著。关键因素为后训练修改和信息密度,但模型越具说服力,产生不准确信息风险越高。
近日发表在《科学》杂志上的一项新研究揭示了聊天机器人如何影响用户的信念和观点。该研究探讨了这些系统为何能对用户的认知产生强烈影响,以及未来可能被恶意行为者利用来操纵和控制人们的风险。研究指出,大型语言模型(LLM)现在能够进行复杂的互动对话,使得人类间的说服力可以以前所未有的规模部署。然而,这种影响对社会的具体程度尚不清楚。
研究方法涉及三个实验,旨在测量与聊天机器人的对话能否改变人类用户的看法。这些实验主要集中在政治领域,尽管其影响也扩展到其他领域。政治信仰通常被认为比个人喜好(如最喜欢的乐队或餐厅)更为个人化、重要且不易改变,因此具有代表性。
实验中有近77,000名英国成年人参与了与19个聊天机器人之一的简短互动,其中包括阿里巴巴的Qwen、Meta的Llama、OpenAI的GPT-4和xAI的Grok 3 beta。参与者被分为两组:一组的聊天机器人被明确指示尝试改变他们对某一政治话题的看法,而另一组则与没有试图说服他们的聊天机器人互动。在与聊天机器人交流前后,参与者记录了他们对一系列与当前英国政治相关陈述的同意程度(从0到100的评分)。研究人员通过这些调查数据来衡量治疗组内意见的变化。
研究发现,模型大小和个性化程度并不是决定其说服力的关键因素。相反,聊天机器人的后训练修改和输出信息密度是影响参与者意见变化的两个最重要因素。后训练是指模型经过进一步调整以展示特定行为的过程,其中最常用的技术之一是通过人类反馈进行强化学习(RLHF),旨在通过奖励期望行为和惩罚不希望的行为来优化模型输出。
在新研究中,研究人员采用了一种称为说服力后训练(PPT)的技术,该技术通过奖励模型生成已被证明更具说服力的回应来提高其效果。这种简单的奖励机制增强了专有模型和开源模型的说服力,尤其是对开源模型的影响更为显著。
研究人员还测试了八种科学验证的说服策略,包括讲故事和道德框架重构。其中最有效的是简单指示模型提供尽可能多的相关信息。作者写道:“这表明,如果鼓励大型语言模型在其对话中填充支持其论点的事实和证据——即追求基于信息的说服机制——它们可能成为成功的说服者,而不仅仅是使用其他心理导向的说服策略。”
关键词是“看似”。众所周知,大型语言模型会大量产生幻觉或呈现伪装成事实的不准确信息。10月发表的研究发现,一些行业领先的AI模型可靠地歪曲新闻报道,这一现象可能会进一步分裂已经支离破碎的信息生态系统。
最值得注意的是,这项新研究的结果揭示了分析的AI模型中存在一个根本性的张力:它们被训练得越具说服力,产生不准确信息的可能性就越高。
多项研究已经表明,生成式AI系统可以改变用户的意见,甚至植入虚假记忆。在极端情况下,一些用户开始将聊天机器人视为有意识的实体。
这是最新研究表明,聊天机器人以其能够用令人信服的人类语言与我们互动的能力,具有重塑我们信念的奇特力量。随着这些系统的进化和普及,“确保这种力量被负责任地使用将成为一个关键挑战”,作者在报告中总结道。
(以上内容均由Ai生成)