AI生成政治信息能否改变你的看法?研究揭示新趋势

发布时间:2025年11月7日    来源:szf
AI生成政治信息能否改变你的看法?研究揭示新趋势

快速阅读: 斯坦福大学研究显示,AI生成的政治信息与人类生成的同样具有说服力,且当人们知悉信息源自AI时,更愿意接受对立观点,有助于减少政治极化。

随着大型语言模型日益普及,它们被用于生成政治信息只是时间问题——如果尚未开始的话。斯坦福大学商学院两位教授的新研究探讨了人们对AI生成的政治呼吁的反应及其影响。

“我们感兴趣的是,AI生成的信息是否能像人类生成的信息一样具有说服力。”斯坦福大学商学院组织行为学教授罗伯·威尔(Robb Willer)说,他与来自其领导的政治与社会变革实验室以及斯坦福以人为本的AI研究所的研究团队一起调查了这个问题。“在一系列政策议题上,我们的发现确实如此:由AI开发的消息与人们开发的消息同样具有说服力,尽管读者并不知道消息的来源。”

斯坦福大学商学院市场营销学教授扎卡里·托马拉(Zakary Tormala)则提出了另一个问题:知道一条信息是由AI编写是否会改变人们的反应?托马拉与伊利诺伊大学芝加哥分校的亚当·杜哈切克(Adam Duhachek)及博士候选人刘露(Louise Lu)合作,测试了人们在得知信息来源是AI而非人类时,对不同观点的接受程度。这种方法揭示了,当信息由AI呈现时,人们更愿意听取与其原有立场相反的政策主张。

“我们认为,在这种情况下,AI可能比人类来源表现更好,因为人们相信AI没有说服意图,不会固有地带有偏见,并且能够访问大量信息。”托马拉说,“在我们的研究中,所有这些因素都增加了人们对AI提出的反驳自己信念论点的参与意愿。”

威尔测试了信息本身,而托马拉则关注信息传递者。威尔和他的同事进行了三次调查,测量参与者对一系列政策的看法,包括公共吸烟禁令、枪支管制、碳税和自动选民登记。参与者阅读了支持这些政策的信息,这些信息要么由AI生成,要么由人撰写。(对照组看到的是与政策无关的信息。)最后的调查显示,人们的意见是否有所改变。

“唯一变化的是文章的内容,无论是由人类还是AI撰写,我们都看到了类似的说服效果。”威尔说。值得注意的是,最显著的效果出现在那些已经支持政策的人群中——AI撰写的文字使他们更加坚定自己的信念。

“我们还发现,人们对这些说服手段有不同的看法。”威尔说。虽然未透露消息的作者身份,但参与者一致认为,由人类撰写的呼吁之所以有说服力,是因为它们运用了叙述和个人经历。而由大型语言模型(LLM)撰写的呼吁则因其逻辑推理和清晰的事实陈述而被认为具有说服力。

这一发现补充了托马拉和刘露的研究,后者发现,当被告知信息来自AI时,人们对其反对立场的信息更加开放,因为他们认为AI更加知情、较少偏见且没有说服意图。

“当面对AI而非另一个人传达的信息时,人们更愿意倾听对立面的声音。”托马拉说,“他们更愿意听取反对意见。”

刘露带领团队进行了一系列遵循相同基本设计的实验。参与者收到关于特定政策议题的信息,这些信息与其现有信念相悖。例如,如果某人支持疫苗接种,他们就会读到反对疫苗接种的信息。所有人都阅读同样的信息——这些信息由研究人员准备——但有些人被告知这些论点是由人编写的,而另一些人则被告知是由AI生成的。

前两次实验表明,当人们认为信息来自AI时,他们对反对方的观点更加开放。第三次实验显示,当认为信息来源于AI时,人们更愿意分享并寻求更多关于反对方观点的信息。第四次实验则表明,当认为信息传递者是AI时,对反对方的敌意水平较低。

人们面对来自人工智能而非他人的信息时,更加开放地接受对方的观点。他们更愿意倾听对立立场,并且更倾向于与他人分享这些想法。此外,他们开始以更加合理的态度看待对方,Tormala说,“这是一系列连锁反应,都源于最初的开放态度。”

机器政治

Lu指出,这些发现可以用于开发“小工具”,逐步解决政治极化问题。例如,如果社交媒体公司真心实意地向用户提供更准确、平衡的信息,那么将这些信息归因于人工智能,可能会让用户更容易接受不同意见,并以较少的防御心态处理多样观点。“如果大规模应用,”Lu说,“这种方法可能成为帮助缓解极化的小小途径之一。”

不过,Tormala提到,他们的研究对于信息的准确性保持中立。如果人们不论信息是否准确,都更容易接受人工智能生成的消息,这可能导致虚假信息的传播。他总结道,“这不是说‘嘿,人工智能会拯救我们’,而是人们在认为信息来自人工智能时会有不同的反应。这种反应可能是积极的,也可能是消极的,具体取决于他们接收的信息。”

Willer同样指出了其团队发现的一系列影响。一方面,人工智能的说服效果相对较小。虽然大型语言模型可以使政治信息的生产更加高效,但它们只能改变一小部分人的看法。Willer认为,这本身并不会“动摇社会”。

另一方面,Willer的研究表明,人工智能生成的信息加强了人们的既有信念,这可能导致极化的加剧。Willer认为,在2026年美国中期选举中,外国或国内势力可能利用人工智能代理在社交媒体上发起活动,进一步加深美国人之间的分歧。“在这个国家,政治言论已经非常负面,而大规模扩展人工智能生成的内容并使之恶化在技术上并不困难。”他说,“想象一下,这可能会以多种方式威胁我们已经脆弱的民主制度。”

(以上内容均由Ai生成)

关键词: Ai政治研究趋势

你可能还想读

微软组建“超智能”团队,专注安全可控AI开发

微软组建“超智能”团队,专注安全可控AI开发

快速阅读: 微软成立“超级智能团队”,由AI首席执行官苏莱曼领导,开发解决实际问题的智能系统,涵盖个人助手、医疗和清洁能源三大领域,强调“人文超级智能”,确保系统限定、可控并由人类监督。 微软公司(NASDAQ:MSFT)宣布成立新的内部“ […]

发布时间:2025年11月7日
韩国研发AI自动灭火系统成功完成船载测试

韩国研发AI自动灭火系统成功完成船载测试

快速阅读: 韩国机械材料研究所开发出AI驱动自动灭火系统,能独立识别并扑灭石油火灾,成功完成陆地和船载测试。系统通过智能算法调整喷射角度,适应高海况,提高海上和工业消防安全。 韩国研究团队开发出一种先进的AI驱动自动灭火系统,能够独立识别石 […]

发布时间:2025年11月7日
Phunware发布Q3财报,AI项目稳步推进

Phunware发布Q3财报,AI项目稳步推进

快速阅读: Phunware发布2025年Q3财报,净收入降至60万美元,亏损收窄至240万美元,财务状况改善。公司任命Jeremy Krol为临时CEO,试点AI Concierge产品,加大销售和营销力度,计划Q4推出新网站,目标实现增 […]

发布时间:2025年11月7日
美股AI泡沫破裂风险加剧,澳洲养老金恐受波及

美股AI泡沫破裂风险加剧,澳洲养老金恐受波及

快速阅读: 迈克尔·伯里对英伟达和帕兰提尔采取15亿美元看跌头寸,警示AI泡沫风险。澳大利亚养老金大量投资美国AI市场,面临巨大风险。 因成功预测2008年房地产市场崩溃而闻名的迈克尔·伯里再次出击,这次他将目标对准了人工智能(AI)。根据 […]

发布时间:2025年11月7日
阿里支持的Moonshot AI发布Kimi K2,超越GPT-5

阿里支持的Moonshot AI发布Kimi K2,超越GPT-5

快速阅读: 阿里巴巴支持的Moonshot AI发布Kimi K2 Thinking模型,超越GPT-5等领先系统,具备320亿参数激活能力,支持256,000标记上下文窗口,成本低于竞品,促进AI技术普及。 阿里巴巴支持的中国初创公司Mo […]

发布时间:2025年11月7日
谷歌宣布TPU v7即将全面上市,性能提升显著

谷歌宣布TPU v7即将全面上市,性能提升显著

快速阅读: 谷歌宣布第七代TPU Ironwood即将推出,性能比TPU v5提升十倍,比TPU v6提升四倍。该芯片将用于谷歌云AI工作负载,支持Gemini等AI模型。信实工业将使用TPU扩展至9,216个芯片,共享1.77 PB高带宽 […]

发布时间:2025年11月7日
特斯拉股东批准马斯克创纪录薪酬计划,目标直指AI与机器人领域

特斯拉股东批准马斯克创纪录薪酬计划,目标直指AI与机器人领域

快速阅读: 特斯拉CEO马斯克获股东批准,取得史上最大企业薪酬计划,支持其AI与机器人愿景。计划需特斯拉股价升至8.5万亿美元,马斯克可获12%股票。 特斯拉首席执行官埃隆·马斯克在周四获得股东批准,获得了历史上最大的企业薪酬计划。投资者支 […]

发布时间:2025年11月7日
谷歌推出最强AI芯片“Ironwood”,挑战英伟达GPU霸主地位

谷歌推出最强AI芯片“Ironwood”,挑战英伟达GPU霸主地位

快速阅读: 谷歌宣布最强TPU Ironwood即将广泛提供,比上一代快四倍,助力AI计算。此举使谷歌在AI基础设施市场与英伟达、微软等竞争中占据优势,云业务收入同比增长34%。 谷歌周四宣布,其最强大的张量处理单元(TPU)——Ironw […]

发布时间:2025年11月7日