大型语言模型中心理状态归因对信任的影响
快速阅读: 据《Nature.com》称,研究探讨意识等心理状态归因对信任人工智能的影响,发现意识归因与采纳建议无正相关,智能归因更强相关。这揭示了用户心理投射如何影响与AI的交互信任机制。
人工智能(AI)的快速发展使用户相信,像大型语言模型(LLM)这样的系统具备包括“体验”(如情感和意识)在内的心理状态。这些朴素心理学的归因往往与专家意见相悖,并且不同于对“智能”的归因(例如推理、规划),但它们可能会影响人们对人工智能系统的信任。尽管过去的研究为将人工智能拟人化与信任之间的联系提供了部分支持,但关于意识和其他心理方面的归因对用户信任的影响仍不清楚。
在一项预先注册的实验(N=410)中,我们探讨了这一问题。参与者评估了LLM展示意识及其他多种心理状态的能力,随后完成了一个决策任务,在此过程中可以根据LLM的建议修改自己的选择。贝叶斯分析表明,意识归因与采纳建议之间不存在正相关关系;实际上,与体验相关的心理状态维度之间呈现负相关,而智能归因与采纳建议之间存在较强的关联。
这些发现强调了人们的态度和行为如何受到对LLM能力的复杂直观感受影响——不同心理状态归因维度预测了人们对这些系统的信任程度。这些结果为理解人类与人工智能交互中的信任机制提供了新的视角,同时也揭示了用户对人工智能的心理投射如何塑造其实际使用行为。
(以上内容均由Ai生成)