AI生成政治信息能否改变你的看法?研究揭示新趋势

发布时间:2025年11月7日    来源:szf
AI生成政治信息能否改变你的看法?研究揭示新趋势

快速阅读: 斯坦福大学研究显示,AI生成的政治信息与人类生成的同样具有说服力,且当人们知悉信息源自AI时,更愿意接受对立观点,有助于减少政治极化。

随着大型语言模型日益普及,它们被用于生成政治信息只是时间问题——如果尚未开始的话。斯坦福大学商学院两位教授的新研究探讨了人们对AI生成的政治呼吁的反应及其影响。

“我们感兴趣的是,AI生成的信息是否能像人类生成的信息一样具有说服力。”斯坦福大学商学院组织行为学教授罗伯·威尔(Robb Willer)说,他与来自其领导的政治与社会变革实验室以及斯坦福以人为本的AI研究所的研究团队一起调查了这个问题。“在一系列政策议题上,我们的发现确实如此:由AI开发的消息与人们开发的消息同样具有说服力,尽管读者并不知道消息的来源。”

斯坦福大学商学院市场营销学教授扎卡里·托马拉(Zakary Tormala)则提出了另一个问题:知道一条信息是由AI编写是否会改变人们的反应?托马拉与伊利诺伊大学芝加哥分校的亚当·杜哈切克(Adam Duhachek)及博士候选人刘露(Louise Lu)合作,测试了人们在得知信息来源是AI而非人类时,对不同观点的接受程度。这种方法揭示了,当信息由AI呈现时,人们更愿意听取与其原有立场相反的政策主张。

“我们认为,在这种情况下,AI可能比人类来源表现更好,因为人们相信AI没有说服意图,不会固有地带有偏见,并且能够访问大量信息。”托马拉说,“在我们的研究中,所有这些因素都增加了人们对AI提出的反驳自己信念论点的参与意愿。”

威尔测试了信息本身,而托马拉则关注信息传递者。威尔和他的同事进行了三次调查,测量参与者对一系列政策的看法,包括公共吸烟禁令、枪支管制、碳税和自动选民登记。参与者阅读了支持这些政策的信息,这些信息要么由AI生成,要么由人撰写。(对照组看到的是与政策无关的信息。)最后的调查显示,人们的意见是否有所改变。

“唯一变化的是文章的内容,无论是由人类还是AI撰写,我们都看到了类似的说服效果。”威尔说。值得注意的是,最显著的效果出现在那些已经支持政策的人群中——AI撰写的文字使他们更加坚定自己的信念。

“我们还发现,人们对这些说服手段有不同的看法。”威尔说。虽然未透露消息的作者身份,但参与者一致认为,由人类撰写的呼吁之所以有说服力,是因为它们运用了叙述和个人经历。而由大型语言模型(LLM)撰写的呼吁则因其逻辑推理和清晰的事实陈述而被认为具有说服力。

这一发现补充了托马拉和刘露的研究,后者发现,当被告知信息来自AI时,人们对其反对立场的信息更加开放,因为他们认为AI更加知情、较少偏见且没有说服意图。

“当面对AI而非另一个人传达的信息时,人们更愿意倾听对立面的声音。”托马拉说,“他们更愿意听取反对意见。”

刘露带领团队进行了一系列遵循相同基本设计的实验。参与者收到关于特定政策议题的信息,这些信息与其现有信念相悖。例如,如果某人支持疫苗接种,他们就会读到反对疫苗接种的信息。所有人都阅读同样的信息——这些信息由研究人员准备——但有些人被告知这些论点是由人编写的,而另一些人则被告知是由AI生成的。

前两次实验表明,当人们认为信息来自AI时,他们对反对方的观点更加开放。第三次实验显示,当认为信息来源于AI时,人们更愿意分享并寻求更多关于反对方观点的信息。第四次实验则表明,当认为信息传递者是AI时,对反对方的敌意水平较低。

人们面对来自人工智能而非他人的信息时,更加开放地接受对方的观点。他们更愿意倾听对立立场,并且更倾向于与他人分享这些想法。此外,他们开始以更加合理的态度看待对方,Tormala说,“这是一系列连锁反应,都源于最初的开放态度。”

机器政治

Lu指出,这些发现可以用于开发“小工具”,逐步解决政治极化问题。例如,如果社交媒体公司真心实意地向用户提供更准确、平衡的信息,那么将这些信息归因于人工智能,可能会让用户更容易接受不同意见,并以较少的防御心态处理多样观点。“如果大规模应用,”Lu说,“这种方法可能成为帮助缓解极化的小小途径之一。”

不过,Tormala提到,他们的研究对于信息的准确性保持中立。如果人们不论信息是否准确,都更容易接受人工智能生成的消息,这可能导致虚假信息的传播。他总结道,“这不是说‘嘿,人工智能会拯救我们’,而是人们在认为信息来自人工智能时会有不同的反应。这种反应可能是积极的,也可能是消极的,具体取决于他们接收的信息。”

Willer同样指出了其团队发现的一系列影响。一方面,人工智能的说服效果相对较小。虽然大型语言模型可以使政治信息的生产更加高效,但它们只能改变一小部分人的看法。Willer认为,这本身并不会“动摇社会”。

另一方面,Willer的研究表明,人工智能生成的信息加强了人们的既有信念,这可能导致极化的加剧。Willer认为,在2026年美国中期选举中,外国或国内势力可能利用人工智能代理在社交媒体上发起活动,进一步加深美国人之间的分歧。“在这个国家,政治言论已经非常负面,而大规模扩展人工智能生成的内容并使之恶化在技术上并不困难。”他说,“想象一下,这可能会以多种方式威胁我们已经脆弱的民主制度。”

(以上内容均由Ai生成)

关键词: Ai政治研究趋势

你可能还想读

亚马逊起诉Perplexity AI,指控其秘密访问客户账户

亚马逊起诉Perplexity AI,指控其秘密访问客户账户

快速阅读: 亚马逊起诉Perplexity AI,指控其使用Comet浏览器及AI代理秘密访问客户账户并伪装活动,造成数据安全风险。尽管多次要求停止,Perplexity AI未采取行动。亚马逊认为此行为非法,Perplexity AI则认 […]

发布时间:2025年11月7日
特斯拉计划建设巨型芯片厂,考虑与英特尔合作

特斯拉计划建设巨型芯片厂,考虑与英特尔合作

快速阅读: 特斯拉CEO马斯克表示,公司可能需建巨大芯片厂生产AI芯片,支持自动驾驶和AI发展,考虑与英特尔合作。特斯拉正设计第五代AI芯片,预计2027年大规模生产。 特斯拉首席执行官埃隆·马斯克周四表示,特斯拉可能需要建设一座巨大的芯片 […]

发布时间:2025年11月7日
N-Able财报:强劲ARR增长与AI整合

N-Able财报:强劲ARR增长与AI整合

快速阅读: N-Able, Inc. 第三季度财报显示强劲财务表现,ARR显著增长,EBITDA利润率高,AI整合与市场扩展取得进展;但也面临毛利率下降、外汇影响及Adlumin收购挑战。 N-Able, Inc. 最近举行了第三季度财报电 […]

发布时间:2025年11月7日
AI助力尼日利亚实时监测花粉,提升公共健康水平

AI助力尼日利亚实时监测花粉,提升公共健康水平

快速阅读: 尼日利亚利用AI增强型花粉监测站应对呼吸系统疾病,通过智能网络提供实时花粉数据,助力预防性公共卫生管理,改善空气质量监测。 人工智能正在重新定义社会如何感知和应对环境健康威胁,尤其是在空气质量及过敏原数据匮乏的地区。尼日利亚为此 […]

发布时间:2025年11月7日
VAST Data与CoreWeave达成11.7亿美元合作,推动下一代AI发展

VAST Data与CoreWeave达成11.7亿美元合作,推动下一代AI发展

快速阅读: VAST Data与CoreWeave达成11.7亿美元合作,强化AI云基础设施,提供高性能、低成本、易扩展的数据解决方案,支持实时推理和大规模数据处理。 VAST Data 与 CoreWeave 达成 11.7 亿美元商业合 […]

发布时间:2025年11月7日
Amplitude财报亮眼:营收增长18%,AI产品创新引领未来

Amplitude财报亮眼:营收增长18%,AI产品创新引领未来

快速阅读: Amplitude 第三季度收入8860万美元,同比增长18%,ARR达3.47亿美元,增长16%。推出多款AI新产品,客户基数和跨产品采用率显著提升,毛利率微降至76%,自由现金流下降但仍保持稳健财务状态。 Amplitude […]

发布时间:2025年11月7日
AI恐惧背后:人类与机器的较量

AI恐惧背后:人类与机器的较量

快速阅读: 人们对AI快速发展感到恐惧,主要因其在信息处理和工作效率上超越人类,导致工作被取代。亚马逊近期用AI机器人替换14000名员工,引发广泛关注。AI开发者指出,AI需大量数据支持,缺乏直接感知现实的能力,无法完全替代人类。 越来越 […]

发布时间:2025年11月7日
扎克伯格基金会重组,聚焦AI助力生物医学突破

扎克伯格基金会重组,聚焦AI助力生物医学突破

快速阅读: 陈-扎克伯格倡议重组,聚焦AI加速生物科学研究,旨在治愈疾病,减少多元化和社会正义项目支持,强调Biohub集中科学团队推进疾病检测与治疗技术。 旧金山,11月7日——由马克·扎克伯格及其妻子创立的非营利组织“陈-扎克伯格倡议” […]

发布时间:2025年11月7日