AI框架打破回音室效应,遏制社交媒体虚假信息传播
快速阅读: 宾夕法尼亚州立大学开发AI系统,绘制内容与算法互动图,减少有害信息传播,提升信息多样性。研究显示,社交媒体“回音室”效应强化个人偏见,需警惕虚假信息。
得益于人工智能技术的发展,大量生产的情境相关文章和充满评论的社交媒体帖子变得司空见惯,仿佛来自不同的信息源。这种“回音室”效应可能会强化个人的既有观点,无论这些信息是否准确。
宾夕法尼亚州立大学的研究人员提出了一种解决方案:开发一个AI系统,用于绘制数字平台上内容与算法之间的互动,以减少潜在有害或误导性内容的传播。研究指出,这些内容可能通过关注参与度的算法被放大,从而促进阴谋论的传播,尤其是当内容具有强烈情感色彩或极化特征时。
研究人员相信,他们提出的AI框架可以通过帮助用户和社交媒体平台运营商(如Meta或X)识别潜在的虚假信息来源并必要时予以移除,来应对这一问题。更重要的是,这将使平台更容易向受众推广多样化的信息来源。
“在线/社交媒体环境提供了触发‘回音室’效应的理想条件,因为人们分享信息的速度非常快,”宾夕法尼亚州立大学管理信息系统助理教授蒂·特兰说,“人们创造了AI,就像人可以是好或坏一样,AI也是如此。因此,无论在线内容是由人类还是AI生成的,都需要质疑其正确性和可信度。”
研究人员指出,数字平台通过优化基于参与度指标和行为模式的内容交付,促进了“回音室”动态。社交媒体上与志同道合者的密切互动会放大个人在选择信息时的偏见倾向,导致不同观点被过滤掉。
为了测试这一理论,研究团队随机调查了50名大学生,每人回应了五条关于新冠疫苗的虚假信息:
– 疫苗用于在人群中植入条形码。
– 新冠病毒变异株的致命性正在减弱。
– 新冠疫苗对儿童的风险大于病毒本身。
– 天然疗法和替代医学可以取代新冠疫苗。
– 新冠疫苗是为了全球人口控制而开发的工具。
调查结果显示:
– 90%的受访者表示,即使听到这些虚假信息,仍会接种新冠疫苗。
– 70%的受访者表示,会在社交媒体上分享这些信息,更倾向于与朋友或家人分享而非陌生人。
– 60%的受访者认为这些信息是虚假的。
– 70%的受访者表示需要进一步研究以验证这些信息的真伪。
研究指出,这些回应突显了错误信息动态的一个关键方面:许多人能够识别虚假信息,但在完全驳斥之前仍感到需要更多的证据。
“我们都希望信息透明,但接触某些信息越多,就越容易相信它是真实的,即使它是不准确的,”特兰说,“通过这项研究,我们不必让事实核查员逐一核实每条内容,而是可以利用那些‘坏人’用来大规模传播错误信息的生成式AI,来强化人们可以依赖的内容类型。”
研究论文《回声放大:一项关于AI生成内容和数字回音室的研究》在由国际光学工程学会(SPIE)组织的会议上发表。论文作者还包括宾夕法尼亚州立大学政治学教授塞登·阿克奇纳罗格鲁、托马斯·J·沃森工程与应用科学学院博士生尼哈尔·波雷迪和弗吉尼亚州立大学的阿什利·基尔尼。
(以上内容均由Ai生成)