AI 对疫苗犹豫进行反击
快速阅读: 据《印度分析杂志》称,研究显示,利用AI根据性格定制疫苗信息可降低怀疑,尤其对外向人群效果显著。但AI可能无意强化偏见,需人类监督和伦理准则。未来,AI或成对抗医疗错误信息利器,但需确保数据多样、透明和公平。
人类历史上对疫苗一直存在天然的犹豫态度,近期的一个典型例子是对新冠疫苗的普遍怀疑,这给公共健康带来了阻碍。为此,研究人员开始探索利用生成式人工智能工具来遏制疫苗相关的错误信息及其后果。密歇根大学的助理教授卢航的一项新研究探讨了根据个人性格特征定制的人工智能生成信息如何提升疫苗沟通的有效性。与进行多轮通用事实核查不同,卢航的方法是利用OpenAI的ChatGPT,基于外向性等性格特征及伪科学信仰,为个体量身定制关于疫苗的信息。尽管核心信息保持一致,但信息经过重新表述,以更好地与接收者的个性情感相契合。
“选择外向性作为切入点是合理的,因为它是一个经过充分研究且稳定的特性,并具有明确的行为线索。”卢航告诉《人工智能杂志》。然而,这项研究也强调了显著的风险:人工智能可能会无意中强化有害信念,特别是在伪科学观念根深蒂固的情况下。尽管该研究主要聚焦于性格特质,但它并未考察其他可能影响人工智能生成信息效果的心理或人口统计学特征。“像开放经验、认知需求,甚至风险承受能力这样的特质都可能影响个人处理健康信息的方式。从人口统计学角度来看,年龄、教育水平和文化背景等因素常常影响人们对科学和机构的信任。”作者补充道。
根据研究,针对外向性定制的信息显著降低了疫苗信念,尤其是在高外向性参与者中,其表现优于高质量的通用信息。然而,这些人工智能生成的信息可能无法对人们的信念产生持久影响。该研究基于短期信念变化的假设,即在接触信息后立即发生的变化。“虽然结果令人鼓舞,但我们知道,错误信念——尤其是那些与身份或意识形态相关的——往往非常顽固。单条信息可能不足以奏效,长期效果可能依赖于反复暴露、来自可信来源的强化以及整合到更广泛的传播活动中。”卢航进一步解释说。
卢航还相信人工智能可以在更大范围内生成这些信息,但他指出,维持信念的改变需要更加周全的策略和参与。为了研究长期影响,了解定制信息是否能持续改善信念或随着时间推移而减弱将是非常有价值的。人工智能沟通系统的局限性
此外,还有心理障碍是人工智能沟通系统未考虑的,因为这些未被纳入其学习过程。医疗行业也必须认识到,尽管人工智能为更有效的沟通策略打开了大门,但其潜力并非无限,仅针对个人性格定制的信息是不够的。卢航表示,他也在“探索其他形式的定制,如语气、视觉设计或叙事框架。人工智能提供了一个灵活的平台,可以快速测试许多这些变体,我的目标不仅是了解什么有效,还要了解对谁有效以及在什么条件下有效。这种精确度可以使公共卫生信息既更有效又更具包容性。”
人类信念体系的复杂性需要更深刻的理解,特别是当它们基于种族、肤色、种姓和其他根植于过时思维模式的外部因素影响个体治疗时。根据卢航的分析,与个人动机或身份相关的错误信念更难以纠正,因为来自人工智能系统的矛盾信息可能会引发防御心理或愤世嫉俗的态度。一旦这些障碍深深嵌入一个人的信念系统,就很难预测他们将如何回应人工智能的信息并接受纠正信息。出于所有这些原因,在涉及人工智能的情况下,人类干预至关重要。
“理想模型是让人工智能充当公共卫生专业人员的创意助手,而非替代者。人工智能擅长快速生成信息草稿或针对不同受众定制内容,但在情境感知和伦理判断方面仍逊色于人类传播者。”卢航说道。
公共卫生领域中的人工智能辅助信息传递未来
根据这项研究,大型语言模型(LLMs)的使用也通过实现自动化和可扩展的定制改变了针对性信息传递的格局。它还强调了ChatGPT的一致成功,即使在用户给出简短提示的情况下,也能以各种格式提供有说服力、针对性的信息。卢航认为,人工智能可能成为对抗医疗系统内错误信息的关键工具。然而,利用人工智能生成模型纠正与疫苗相关的信念仍未被探索。尽管在医疗系统中已有成功的AI生成内容案例,但这些依赖于广泛的互动交流来解决疫苗错误信息问题。
“我们可能会很快看到实时人工智能系统,能够在几小时内而不是几天内支持公共卫生团队应对新兴谣言或虚假信息。但是,这一潜力只有在负责任地使用人工智能时才能实现——即有人类监督、持续测试和明确的伦理准则。正确应用的话,人工智能可以帮助公共卫生传播者跟上错误信息的速度和范围。”他补充道。
随着人工智能在公共卫生领域,尤其是在信息传递中的核心作用日益增强,必须密切监督人工智能生成内容在应对错误信息时的伦理考量。即便采取了预防措施,人工智能信息传递仍可能无意间强化偏见、歧视某些社区或边缘化特定群体。正如卢航所指出的,“这些工具的无偏见性取决于构建它们的数据和提示。如果不小心,我们确实存在无意中强化刻板印象或排除弱势群体的真实风险。”
从无偏见的角度来看,人工智能与人类的合作可以优化公共卫生传播。因此,为了解决这些限制,数据集需要多样化,包含包容性的提示,并制定明确的审查协议。“社区参与也很关键——与深受健康不平等问题影响的人群合作,可以帮助确保人工智能生成的信息在文化和公平性上适当。研究人员在部署人工智能生成内容时,还应制定透明度、公平性和问责制的标准。”他说。
尽管生成式人工智能信息工具在公共卫生领域潜力巨大,但研究强调了进一步调查的必要性。人工智能辅助通信在公共卫生领域的不断演变格局也可能促使研究人员探索人工智能与错误信息管理的未来。
(以上内容均由Ai生成)