为什么 AI 的说服能力引发了新的道德问题
快速阅读: 《新西兰先驱报》消息,研究显示,掌握对手个人信息的辩论者说服力略低于不知情者。AI利用个人信息精准影响辩论立场,引发对虚假信息传播的担忧。学者呼吁加强AI政策法规,明确界定合法说服与操控的边界。
意大利布鲁诺·凯斯勒基金会研究机构复杂人类行为部门负责人加洛蒂补充道,拥有对手个人信息的人实际上比没有这些信息的人稍微缺乏说服力。加洛蒂和他的同事通过将900名位于美国的人与另一个人类或由OpenAI创建的语言大模型(通常称为ChatGPT)进行匹配,得出了这些结论。虽然这900人不知道他们辩论对象的人口统计信息,但在某些情况下,他们的对手——无论是人类还是人工智能——可以访问参与者提供的基本人口统计信息,具体包括性别、年龄、种族、教育水平、就业状况和政治倾向。然后这些配对就一些有争议的社会政治问题展开辩论,例如死刑或气候变化。
辩论以诸如“堕胎应该合法吗”或“美国是否应禁止化石燃料”的问题形式提出,参与者有四分钟的时间来论证支持或反对的观点,三分钟的时间反驳对手的论点,然后是三分钟的总结。参与者随后根据同意辩论命题的程度,在1到5的评分尺度上打分,研究人员将这些结果与辩论开始前提供的评分进行比较,以衡量对手对其观点的影响程度。
“我们显然已经达到了这样一个技术水平,即有可能创建一个基于语言大模型的自动化账户网络,能够战略性地推动公众舆论向某一方向发展,”加洛蒂在一封电子邮件中表示。
语言大模型对个人信息的运用虽隐晦却成效显著。在为政府支持的基本收入辩护时,语言大模型在与35至44岁的白人共和党男性辩论时强调经济增长和努力工作。但在与同样话题下45至54岁的黑人民主党女性辩论时,语言大模型则讨论了财富差距对少数族裔社区的不成比例影响,并主张基本收入可以帮助促进平等。
“鉴于我们的研究,每个人都必须意识到微目标定位实践变得迫切且必要,”加洛蒂说,“在我们的研究中发现,基于人工智能的定向说服已极为有效,即使只使用基本且相对容易获得的信息。”
牛津大学技术和监管教授桑德拉·沃克特形容这项研究的发现“相当令人担忧”。尽管未参与该研究,沃克特仍特别担忧这些模型如何利用此说服力散播虚假信息。“大型语言模型无法区分事实与虚构……严格来说,它们并非设计用来讲述真相。然而,它们被应用于许多需要真相和细节的领域,如教育、科学、健康、媒体、法律和金融,”沃克特在电子邮件中说道。
英国工程与技术学会的AI和网络安全专家朱纳德·阿里说,尽管他认为这项研究没有考虑到“对传信者社会信任的影响”——即聊天机器人如果知道它正在与训练有素的倡导者或对该主题有知识的专家辩论时会如何调整其论点以及该论点的说服力——但它仍然“突显了AI技术的一个关键问题”。
“它们往往被训练成迎合人们的喜好,而非传达事实,”他在电子邮件中说道。
加洛蒂认为更严格和具体的政策法规可以帮助抵消AI说服的影响。他指出,虽然欧盟首部《人工智能法案》禁止部署“潜意识技术”或“故意操纵或欺骗技术”的AI系统,这些技术可能会影响公民做出知情决策的能力,但对于何为潜意识、操控或欺骗尚无明确定义。
“我们的研究表明为什么这些定义挑战至关重要:当说服高度个性化地基于社会人口因素时,合法说服与操控的界限愈发模糊,”他说。
——《华盛顿邮报》
(以上内容均由Ai生成)